Martin Bernklau wird Opfer der Künstlichen Intelligenz

Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.

Zusätzlich liefert Copilot noch die volle Adresse von Bernklau mit Telefonnummer und Routenplaner.

Viele Jahrzehnte war Bernklau Gerichtsreporter, hat für verschiedene Zeitungen über Prozesse aus dem Landgericht Tübingen berichtet - über Fälle von Missbrauch, Gewalt und Betrug, mit denen er jetzt in Verbindung gebracht wird, weil sie auch im Internet zu finden sind. Die KI kombiniert, trägt zusammen und macht so den Reporter zum Täter.

Der zuständige Datenschutzbeauftragte vom bayerischen Landesamt wendet sich - Monate nach einer Beschwerde Bernklaus - mit dem Fall an Microsoft. Dort sichert man zu, das Problem abzustellen. Tatsächlich verschwinden die Einträge recht schnell. Doch nach ein paar Tagen erscheinen dieselben Aussagen wieder im Chat. …

EDIT: Der Link hat gefehlt! Sorry.

  • DetektivEdgar@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    3
    ·
    edit-2
    1 month ago

    Der trägt zivilrechtlich natürlich Verantwortung und daraus kann man im Strafrecht sicher auch teilweise etwas ableiten. Aber hier stand ja Verleumdung im Raum und die setzt Vorsatz voraus. Das scheint mir hier eine recht hohe Hürde.

    • trollercoaster@sh.itjust.works
      link
      fedilink
      Deutsch
      arrow-up
      4
      arrow-down
      1
      ·
      1 month ago

      Hinter dem Betrieb der “KI” dürfte durchaus Vorsatz stecken, das macht eine Firma ja nicht, weil sie das eigentlich gar nicht will.

      • DetektivEdgar@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        2
        ·
        1 month ago

        Ja, natürlich. Die Software wird vorsätzlich eingesetzt. Aber bei der Verleumdung muss sich der Vorsatz einer Person auch darauf beziehen, dass eine bestimmte Info falsch ist.

        • trollercoaster@sh.itjust.works
          link
          fedilink
          Deutsch
          arrow-up
          4
          arrow-down
          1
          ·
          edit-2
          1 month ago

          Eine Software, die Texte anhand statistischer Wahrscheinlichkeiten von Wortfolgen generiert, erzeugt zwangsläufig auch sachlich falsche Texte. Wer eine solche Software als “Assistenten” in ein Betriebssystem einbaut, nimmt billigend in Kauf, dass sie falsche Informationen verbreitet und die Benutzer das für bare Münze nehmen.

          • DetektivEdgar@feddit.org
            link
            fedilink
            Deutsch
            arrow-up
            1
            ·
            edit-2
            1 month ago

            So kann man sicherlich argumentieren, wenn Eventualvorsatz reicht.

            Mein Studium ist lange her und ich bin kein Strafrechtler, aber bei dem Aspekt, dass eine bestimmte Info falsch ist, braucht es wohl sicheres Wissen. Das wäre dolus directus 2. Grades, falls es jemand bei Wikipedia nachlesen will.

            Das in Kauf nehmen ist weniger streng.