Da es mittlerweile Tradition ist, den Moderatoren auf die Sprünge zu helfen, präsentiere erneut ich euch den Metafaden dieses Monats – diesmal pünktlich wie ein getakteter Zug mit einer Stunde Verspätung.
Erzählt Dinge, malt Sachen, singt, tanzt, treibt allerlei Schabernack und vergesst nicht, Futterrücken für die Moderatoren dazulassen. (@Dunstabzugshaubitze@feddit.org, bezahl mich später.)
Und nun ohne weitere Umschweife die beste Metafaden-Metastase, die je mit Mate über auf mediterranen Matratzen meditiert hat.
Sehe es leider viel zu häufig, dass GPTs als Denk- und Lernstütze missbraucht werden.
Beispiel aus meinem Studiengang, Zoom Sitzung zu Mathe: Kommilitone wird aufgerufen, soll eine Aufgabe erläutern und beantworten: “ja kein Plan, hab das mal in Gemini reingehauen und der sagt [Antwort].”
Da frag ich mich: Was zum Fick machst du hier in der Vorlesung und hier im Studium allgemein?
Das ist sogar noch schlimmer, weil man in den Übungsräumen (Vorlesung wird bei Übingen in Unterräume aufgeteilt, quasi Gruppenarbeiten) sogar den Dozenten zu sich rufen und um Hilfe bitten kann.
Oder frag halt deine Kommilitonen um Unterstützung oder schau im Skript nach und denke selbst.
Rant Ende.
Wenn ich für jeden Furz erstmal ChatGPT anwerfe und die Antworten unreflektiert übernehme, was bin ich dann noch als Mensch? Ein menschliches Clipboard?
Das Problem sind für mich dabei nicht die KI-Modelle, sondern deren unkritische Verwendung und Vermarktung als “starke KIs” und “allgemeine Problemlösemaschinen”. Davon sind wir denkbar weit entfernt.
Das ist aber weniger ein Problem mit KI als mit faulen Studenten. In Mathestudiengängen ist WolframAlpha das Allheilmittel.
Nicht nur das Abitur verschimmelt. Auch Studienabschlüsse werden jedem nachgeworfen, der es schafft, die Klausurbögen nicht vollzusabbern. Auch das ist nichts Neues oder KI-verschuldetes.
Dasselbe kann man über Googlen sagen. Menschen, die mit Suchmaschinen aufgewachsen sind, sind weniger geübt darin, über ein Problem nachzudenken und mehr geübt darin, das Problem suchmaschinengerecht zu formulieren.
Kann man nicht so einfach trennen, weil KI spezifisch solche Nutzer anzieht. Klar, es wurde hart gepusht und jeder hats mal ausprobiert, aber die Kernnutzergruppe sind einfach Leute die so tun wollen als hätten sie gearbeitet.
Niemand nutzt KI weil es der einzige effiziente Weg ist zu einem bestimmten Ergebnis zu kommen. Es wird genutzt weil mit wenig Aufwand ein quasi-fertiges Produkt rausfällt.
Lol, nein. Wenn du irgend ein Thema recherchieren willst kommst du in 99% der Fälle nicht an einer Suchmaschine vorbei. Das liegt einfach daran wie wir global Informationen organisiert haben.
Ein besserer Vergleich wäre es, auf den “Feeling Lucky” Knopf zu hauen und das erste SEO-Slop Ergebnis anzusehen.
Ich stimme dir im Kern ja zu, dass das Problem nicht die Modelle sind, sondern deren Verwendung. Daher ja der letzte Absatz. Und meine Kritik am zu wenig selbst Nachdenken und Eigenleistung vermeiden kann wie du sagst auch auf Suchmaschinen übertragen werden.
Dann frage ich mich aber, in wie fern das eine Antwort auf die Frage „Warum magst du KI nicht” ist
Mich vervt es, ständig Personen erklären zu müssen, dass ChatGPT und Co. eben keine verlässlichen Antworten liefern. Mich nervt es, dass Konzerne die Fähigkeiten ihrer Modelle maßhaft überpräsentieren. Und es nervt mich, dass man an vielen Stellen mit KI-Müll bombardiert wird (Suchergebnisse, Bildersuche, Chat-Bots) und es keine zufriedenstellende Filter-Option gibt.
KI wird derzeit meiner Meinung nach als Allheilmittel vermarktet und das ist es eben nicht.