· 

Die Chancen der KI

In diesem Blog geht es um die Risiken der KI, insbesondere das existenzielle Risiko einer unkontrollierbaren KI. Aber das bedeutet nicht, dass ich generell gegen KI wäre. Im Gegenteil sehe ich in KI große Chancen, seit ich mich in den Achtzigerjahren zum ersten Mal damit beschäftigt und darüber promoviert habe. Ich habe u.a. den ersten kommerziellen Chatbot in deutscher Sprache mitentwickelt und 1999 ein Start-up für Chatbot-Software gegründet, das u.a. mit dem "E-Conomy-Award" der Wirtschaftswoche ausgezeichnet wurde. Ich bin also ganz sicher nicht pauschal gegen KI. Wie bei jeder Technik kommt es darauf an, was wir damit machen.

 

Ein Positivbeispiel ist für mich die Deepmind-KI AlphaProof, die vor zwei Wochen Schlagzeilen gemacht hat, weil sie zusammen mit der "Kollegin" AlphaGeometry bei der Internationalen Mathematik-Olympiade die für eine Silbermedaille erforderliche Punktzahl erreicht hat (die KIs liefen außer Konkurrenz und habe eine der vier Aufgaben auch nicht in der erforderlichen Zeit gelöst, aber trotzdem!). Deepmind hat bereits mit AlphaFold Geschichte geschrieben, das 2018 die Fachwelt in Erstaunen versetzte, weil es bei einem Wettbewerb das vertrackte Protein-Faltungsproblem besser lösen konnte als alle menschlichen Teams. Das ist ein Durchbruch gewesen, dessen positive Auswirkungen inbesondere für die Medizin und Pharmazeutik kaum absehbar sind. AlphaFold hat sich seitdem erheblich weiterentwickelt und ist zu einem äußerst wertvollen Tool geworden, das täglich von vielen Forschern weltweit genutzt wird.

 

Nicht so begeistert bin ich dagegen von Versuchen, agentische KIs zu entwickeln, wie etwa Project Astra, das ebenfalls bei Google Deepmind läuft.  Ein YouTube-Video dazu wirkt zwar sehr niedlich, lässt aber auch erahnen, dass eine Software, die Bilderrätsel versteht und Code von einem Bildschirm lesen kann, auch die Menschen vor den Bildschirmen sehr genau beobachten und verstehen kann, was sie tun - George Orwell würden die Haare zu Berge stehen, wenn er das Video sehen könnte.

 

Was ist der Unterschied zwischen "guter" KI wie AlphaProof und AlphaFold und potenziell gefährlicher KI wie Project Astra?

 

Man kann KI anhand ihrer Kompetenz im Vergleich zu Menschen und der Breite ihres Anwendungsgebiets klassifizieren:

Auf der linken Seite finden sich spezialisierte KIs wie das übermenschlich gute Schachprogramm Stockfish und die Deepmind-KIs AlphaGo, AlphaFold und AlphaProof. Auch die Expertensysteme, die ich in den Achtzigerjahren entwickelt habe, sind solche Spezial-KIs, die nur ganz bestimmte Aufgaben lösen können, das aber relativ gut.

 

Die KI-Forschung hatte allerdings von Anfang an das Ziel, KIs mit breiteren Anwendungsgebieten zu entwickeln, bis hin zu einer "Artificial General Intelligence" (AGI), also einer KI, die alle Probleme auf mindestens menschlichem Niveau lösen kann. Von dort wäre es dann nur noch ein kleiner Schritt bis zu einer Superintelligenz, die uns in jeder Hinsicht weit voraus wäre. Wie der Mathematiker Irving J. Good bereits 1965 festgestellt hat, könnte eine solche Superintelligenz sich selbst weiterentwickeln und es käme dann zu einer "Intelligenzexplosion".

 

Davon sind heutige Sprachmodelle wie ChatGPT noch ein Stück entfernt, von den "klassischen" Chatbots, die wir in meinem Start-up Kiwilogic entwickelt haben, ganz zu schweigen. Aber die Entwicklung insbesondere in den letzten fünf Jahren war rasant und wir stehen womöglich kurz vor einer entscheidenden Schwelle. Denn das Problem ist, dass die Gefahr eines Kontrollverlustes umso größer wird, je weiter wir uns der rechten oberen Ecke annähern.

Solange wir das Kontroll- bzw. Alignment-Problem nicht gelöst haben (und das haben wir nicht mal ansatzweise), ist es ein verhängnisvoller Fehler, weiter Richtung rechts oben zu stürmen. Und das ist auch gar nicht notwendig, um die Chancen der KI zu nutzen. Klar wäre es irgendwie cool, wenn eine freundliche KI alle Entscheidungen besser treffen könnte als wir. Aber davon abgesehen, dass wir nicht wissen, wie wir sicherstellen sollen, dass diese KI wirklich "freundlich" ist (was immer das genau bedeutet): Wollen wir uns wirklich alle Entscheidungen von KI abnehmen und uns damit de facto entmündigen lassen?

 

Spezialisierte KIs wie AlphaFold und AlphaProof können unsere eigene Intelligenz verstärken und uns helfen, bessere Entscheidungen zu trefffen. In der Medizin, im Umweltschutz, in der Industrierobotik, beim autonomen Fahren etc. gibt es noch unendlich viele Möglichkeiten, solche KIs für eine bessere Zukunft zu nutzen. Natürlich kann man auch mit solchen KIs Schaden anrichten, aber das ist dann jeweils eine menschliche Entscheidung - hoch spezialisierte KIs wie AlphaFold brauchen kein allgemeines Weltverständis, erlangen deshalb auch keine "strategische Selbsterkenntnis" und entwickeln keine instrumentellen Ziele, die zu Interessenkonflikten mit uns Menschen führen.

 

Der Wert einer allgemeinen KI dagegen ist aus meiner Sicht mehr als fragwürdig, denn einerseits ist es viel schwerer einzuschätzen, wie sinnvoll ihre einzelnen Entscheidungen wirklich sind (siehe z.B. die Halluzinationen von ChatGPT) und andererseits könnte sie außer Kontrolle geraten und unsere Zukunft zerstören.

 

Es wird Zeit, dass wir uns die Frage stellen, ob wir nicht in die falsche Richtung rennen, wenn wir weiterhin AGI als das ultimative Ziel der KI-Forschung betrachten. Leider tun die großen KI-Firmen, inkl. Google-Deepmind, genau das. Aber vielleicht können wir doch noch umdenken und uns auf spezialisierte KIs fokussieren, die uns bereits heute viel mehr nützen als ChatGPT & Co. Zu diesem Thema habe ich auch ein neues YouTube-Video veröffentlicht.


Kommentar schreiben

Kommentare: 4
  • #1

    Mischa (Sonntag, 11 August 2024 14:21)

    Hallo Karl,
    ich hoffe, dass das Video zu Project Astra ein Fake ist, also die einzelnen Erkennungen geskriptet bzw. vorhergeplant sind. Wenn nicht, wäre dies ein krasser Schritt, der KI eine allgemeine "Wahrnehmung" unserer Realität zu ermöglichen. Vor allem die "Erinnerung", wo sich die Brille befindet ist bedenklich...
    Grundsätzlich zeigt das Projekt aber, dass die Einsatzmöglichkeiten der KI rasend schnell erweitert werden und wir so KIs erschaffen, deren Fähigkeiten unseren ebenbürtig oder sogar überlegen sein könnten.
    VG Mischa

  • #2

    Karl Olsberg (Sonntag, 11 August 2024 15:01)

    @Mischa: Nein, ein Fake ist das ziemlich sicher nicht. Die KI kann diese Dinge wirklich erkennen. Das ist auch nichts ganz Neues, auch ChatGPT kann Bilder analysieren. Project Astra ist nur ein weiterer Schritt auf dem Weg, den Deepmind, OpenAI und andere gehen und der meines Erachtens in die falsche Richtung führt.

  • #3

    Mischa (Sonntag, 11 August 2024 17:21)

    @Karl: Die "live-Erkennung" durch das Smartphone oder Google Glasses ist worauf ich hinaus will, da sie den passiven Einsatz der KI über eine eingeschränkte Schnittstelle zu einem aktiven Dauereinsatz verändert.
    Wenn jeder mit einem Android-Smartphone oder so einer Brille dieses Feature nutzen würde, dann gäbe es eine KI mit Augen und Ohren, die eine globale "Wahrnehmung" unserer Realität hätte, ohne dass wir kontrollieren könnten, was wir der KI zur Verfügung stellen.
    Die verfügbare Datenemenge, auf die Gemini oder irgendeine KI dadurch Zugriff hat, würde sich dadurch vervielfachen!

  • #4

    Karl Olsberg (Sonntag, 11 August 2024 17:27)

    @Mischa: Das stimmt.