Mal eine Frage an Herrn Ametsreiter, Vorstandsvorsitzender der Bertelsmannstiftung:

Man brauche große Data-Center und eine leistungsfähige Glasfaseranbindung, um KI überhaupt ausspielen zu können.

Ich möchte niemandem Dummheit unterstellen, ohne vorher gefragt zu haben, daher vielleicht erst mal: Wie, glauben Sie, war die KI-Forschung der 60er Jahre, die zweifellos “KI ausgespielt” hat, an irgendwas “angebunden”?

  • trollercoaster@sh.itjust.works
    link
    fedilink
    Deutsch
    arrow-up
    7
    ·
    edit-2
    1 day ago

    KI-Experten würden wahrscheinlich solchen dümmlichen Heißdüsen wie dem Vorstandsvorsitzenden der Bertelsmann-Stiftung sagen, wie es ist: Ersetzen kann man damit nur Leute in Bullshit-Jobs, die nichts als heiße Luft ohne jegliche Substanz produzieren, wie zum Beispiel den Vorstandsvorsitzenden der Bertelsmann-Stifung.

  • doktormerlin@feddit.org
    link
    fedilink
    arrow-up
    7
    ·
    1 day ago

    Ich glaube die deutsche Vorsicht wird hier Früchte tragen. KI ersetzt aktuell vor allem Einstiegsplätze. Junior-Entwickler, Trainees. KI ist günstiger und produktiver.

    Aber in 10 Jahren werden genau diese Juniors und Trainees komplett fehlen. KI wird auf Junior-Level bleiben, das ist einfach der Technik geschuldet. LLMs geben nur das wieder was im Internet steht und die wenigsten Senior Entwickler werden ihre spezifischen Unternehmensentscheidungen im Internet dokumentieren. Im Gegensatz zur gemeinen Meinung ist es so, dass LLMs nicht selbstständig dazulernen können.

    Junior Entwickler lernen allerdings und werden Senior Entwickler. Und genau die Leute werden sehr bald fehlen.

    • lemmysarius@feddit.org
      link
      fedilink
      arrow-up
      5
      arrow-down
      4
      ·
      1 day ago

      “KI wird auf Junior-Level bleiben,”

      Ganz schön kühne These.

      Die Fähigkeiten der KI Modelle, vor allem in der Programmierung, sind seit 2022 stetig gestiegen und es gibt keine Anzeichen das es irgendwie stagnieren würde. Klar wird es limits geben, die sind jedoch noch nicht mal klar definierbar.

      Vor einem Jahr hatte keine KI mehr als 60k token context wirklich verstanden, heute können Modelle 100k oder in Googles Fall bis zu 400k gut verstehen.

      Um umfangreiche Codebases größerer Unternehmen zu laden werden bis zu zwei Millionen token context benötigt.

      Wenn das möglich ist, wird die KI nicht mehr wie ein Junior arbeiten.

      Halluzination sind ein wirkliches Limit der Technologie, sind jedoch durch die noch relativ neuen “Denk Fähigkeiten” und tools wie RAG stark reduzierbar.

      Klar, eine LLM wird nie AGI, aber mehr als Junior alle mal.

      Ich persönlich denke das LLMs zusammen mit verschiedenen Frameworks und tools gut genug werden können um die nächste Architektur zu entwickeln die tatsächlich zu AGI führen kann.

      Dem Problem mit den fehlenden Senior Entwicklern Stimme ich im Prinzip zu. Jedoch denke ich das die Seniors in einem Jahrzehnt oder so nur noch KIs managen und schauen das die unterschiedlichen Coding Agents das machen was sie sollen. Daher werden in Zukunft auch viel weniger gebraucht.

      • rhabarba@feddit.orgOP
        link
        fedilink
        arrow-up
        4
        ·
        1 day ago

        Vor einem Jahr hatte keine KI mehr als 60k token context wirklich verstanden, heute können Modelle 100k oder in Googles Fall bis zu 400k gut verstehen.

        “KI” versteht exakt überhaupt nichts. Weitere Erläuterungen sind überflüssig.

        • lemmysarius@feddit.org
          link
          fedilink
          arrow-up
          2
          arrow-down
          1
          ·
          1 day ago

          Das ist richtig. KI ist ein eher ein Sammelbegriff und nicht klar definierbar.

          Hier hatte ich LLMs gemeint.

          “Verstehen” ist auch mehr als Metapher gemeint, da ich größere Vorkenntnisse über die Technologie in der Comunnity hier erwartet hatte. Ich hätte näher ausführen sollen was damit genau gemeint ist.

          Der “context” ist ein temporärer Bereich der bei jedem Chat mit einer LLM neu kreiert wird. Darin denkt/arbeitet/schreibt/generiert das Modell und kann theoretisch gesehen so groß sein wie es die Hardware erlaubt. Also in den hunderte Millionen token. Das nützt aber nichts wenn das Modell nur noch Buchstabensalat generiert wenn die trainierte Länge überschritten wurde.

          Wichtig zu meinem Kommentar ist hier, egal wie lang die beworbene Länge context ist, (bei den meisten 128k-200k und Google 1m), die tatsächliche Länge womit das Modell arbeiten kann ist meist drastisch kürzer.

          Ja, das Modell kann bis zum Ende des context sinnvoll klingende Sätzen schreiben ohne komplett zu kollabieren, das bedeutet jedoch nicht das das geschriebene tatsächlich Sinn ergibt.

          Mein “Verstehen” bezieht sich darauf, wieviel context das Modell nutzen kann und trotzdem mit Sinn antworten kann. Wird ihm also ein langer Artikel oder eine große Studie eingespeist, sollte es keine Details vergessen oder übersehen.

          Wird z.B. ein 200k Modell randvoll mit einer Codebase gestopft, ist es quasi garantiert das es Funktionen im 60-200k Bereich vergisst. Es kann wahrscheinlich nicht mal annähernd wiedergeben was gegen Ende des context überhaupt steht.

          Das meine ich mit Verstehen, weil das Modell zwar theoretisch die Informationen im context hat, damit aber nichts anfangen kann.

  • plyth@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    4
    ·
    1 day ago

    In der Hälfte aller deutschen Kreise und kreisfreien Städte findet KI am Jobmarkt demnach so gut wie gar nicht statt.

    Der Standort der Firma ist doch zweitrangig. Die meisten KI Arbeitsplätze sollten Remote Arbeitsplätze sein.

  • baleanar@discuss.tchncs.de
    link
    fedilink
    Deutsch
    arrow-up
    5
    ·
    2 days ago

    „Was im ländlichen Raum fehlt, ist eine hochleistungsfähige (FTTH) Glasfaser-Infrastruktur“, sagte Ametsreiter. Man brauche große Data-Center und eine leistungsfähige Glasfaseranbindung, um KI überhaupt ausspielen zu können.

    Nur im ländlichen Raum? Ich habe an manchen stellen in Berlin solch eine miese Verbindung gehabt dass es unnötig war am Netz angeschlossen zu sein. Glasfaser fehlen überall in Deutschland. Angeblich gibt es 5,3 Millionen Glasfaseranschlüsse von den 38 Millionen Internetanschlüssen insgesamt (ungefähr 13%), jedoch zweifelte ich auch dies an. Ich kenne keine einzige Person die Glasfaser überhaupt bestellen kann.

    • kossa@feddit.org
      link
      fedilink
      Deutsch
      arrow-up
      7
      ·
      2 days ago

      In unserer alten Wohnung in Hamburg gab es tatsächlich Glasfaser. Aber die Glasfaser Tarife in D sind so komplett dumm, dass niemand im Haus umgestiegen ist 😂

      Glaube, das spielt auch ne große Rolle.

    • cows_are_underrated@feddit.org
      link
      fedilink
      arrow-up
      3
      ·
      1 day ago

      Bei uns ist ein relativ großer Teil des Dorfes (und der umliegenden Ortschaften) bereits vor Jahren im Zuge dieser Großen Ausbaukampagne von der deutschen Glasfaser darauf umgestiegen. Mich wundert es immer wieder, dass das scheinbar eine relativ große Ausnahme ist.

      • Fusselwurm@feddit.org
        link
        fedilink
        arrow-up
        2
        ·
        1 day ago

        Tja. Bei uns könnte ein Unternehmen Glasfaser verbuddeln… verzichtet aber drauf, weil zu wenige Leute mit denen einen Vertrag abschließen wollten. Haben wir nich, brauchen nich, tschüs.