• vintageballs@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    2
    ·
    1 month ago

    Witzig, dass du schreibst, dass die meisten keine realistische Vorstellung von KI haben und dann im nächsten Absatz selbst falsche Aussagen darüber triffst.

    “KI”, in diesem Fall wohl LLMs, haben zwar keine integrierte Funktion zum Faktencheck, können aber über RAG, (externe) Knowledge Graphs und weiteres Tooling durchaus automatisch mit korrekten Fakten gefüttert werden. Reflexion ist mit LLMs ebenfalls möglich, wahlweise durch prompt patterns, oder, wie im Falle von o1, durch gezieltes fine-tuning hinsichtlich “Gedankenketten”. Da die Generierung konditionell funktioniert, kann ein ausreichend komplexes und leistungsfähiges LLM also basierend auf vorherigen Beobachtungen und Korrekturen zu einem guten Ergebnis kommen.

    Dass das nicht immer klappt, will ich nicht abstreiten - ich wage auch keine Prognose, ob es jemals 100% fehlerfrei klappen wird, aber die Technologie ist auch noch vergleichsweise jung und entwickelt sich zurzeit rasant.

    P.S. bzgl lernfähig und korrigierbar: in-context learning, oben genannte RAG, Gedächtnis-Tools und ähnliche Erweiterungen erlauben durchaus auch kleinere Anpassungen (“lernen”) ohne neues Training.