Ein Blog von Karl Olsberg
25.10.2024: Der Große Plan
Als der Präsident den Großen Plan ankündigt, der von seinem superintelligenten KI-Berater entwickelt
wurde, ist die Menge begeistert. Aber einige Menschen haben immer noch Zweifel ...
Die Geschichte "Der Große Plan" ist ein Gewinner des Superintelligence Imagined Wettbewerbs des Future of Life Institutes.
16.9.2024: Wem soll man glauben?
KI-Firmenbosse wie Elon Musk und Sam Altman warnen öffentlich vor den Gefahren der KI, torpedieren
aber gleichzeitig jede sinnvolle Regulierung. Wem kann man überhaupt noch glauben? Eliezer Yudkowsky, KI-Sicherheitsexperte der ersten Stunde, hat dazu eine klare Meinung.
11.8.2024: Die Chancen der KI
In diesem Blog schreibe ich über die Risiken der KI. Aber es gibt natürlich auch große Chancen. Wenn
wir die richtigen Entscheidungen treffen, können wir KI für eine großartige Zukunft nutzen.
24.7.2024: Existenzielle KI-Risiken im Bundestag? Fehlanzeige.
International wird in der Politik immer mehr über die existenziellen Risiken der KI debattiert. Nur im
Deutschen Bundestag nicht. Schade eigentlich.
7.7.2024: Existenzielles KI-Risiko? So ein Quatsch!
Oft ist zu hören und zu lesen, die Sorge vor dem existenziellen Risiko einer unkontrollierbaren KI sei übertrieben oder gar "Hype" oder "Panikmache". In diesem Beitrag gehe ich auf die häufigsten Einwände der Skeptiker ein.
2.6.2024: Yoshua Bengios Sinneswandel
In einem neuen Video lese ich Auszüge aus einem Blogbeitrag vor, in dem Yoshua Bengio seinen Sinneswandel in Bezug auf die existenziellen Risiken der KI beschreibt. Hier meine Übersetzung des vollständigen Textes.
21.5.2024: Wieso ist KI eine existenzielle Bedrohung?
Für diejenigen, die sich neu mit dem Thema beschäftigen, gebe ich hier eine Einführung in das existenzielle Risiko unkontrollierbarer KI.
20.5.2024: Was können wir tun?
Als Reaktion auf mein neues YouTube-Video zu Jan Leikes deutlichen Worten über die Sicherheitssituation bei OpenAI haben einige Leute berechtigterweise gefragt: Was können wir schon tun? Meine Antwort: Die Lage ist ernst, aber noch haben wir Handlungsmöglichkeiten.
18.5.2024: Eine mehr als deutliche Warnung
Jan Leike, bis vor Kurzem verantwortlich für die KI-Zielkonformität und Leiter des "Superalignment-Teams" bei OpenAI, hat eine sehr deutliche Warnung auf X gepostet, die wirklich jeder lesen sollte. Es wird Zeit, dass wir auch hier in Deutschland erkennen, wie ernst die Lage ist.
15.5.2024: Was ist los bei OpenAI??? Teil 2
Gleich vier wichtige Personen haben OpenAI in den letzten Tagen verlassen. Drei davon haben im Bereich KI-Sicherheit gearbeitet, einen kenne ich persönlich. Der Eindruck drängt sich auf, dass OpenAI aus Profitgier die Zukunft der Menschheit riskiert.
1.4.2024: Denn sie wissen nicht, was sie tun
Leider kein Aprilscherz: Niemand weiß, wie moderne KI funktioniert und wie wir eine zukünftige, womöglich übermenschliche KI kontrollieren sollen. Trotzdem tun ein paar Silicon Valley-Bosse alles, um sie so schnell wie möglich auf die Menschheit loszulassen.
16.3.2024: Interview zu KI-Risiken im TATuP-Magazin
In der aktuellen Ausgabe des renommierten Fachmagazins "Technikfolgen-Abschätzung in Theorie und Praxis" erkläre ich in einem Interview meine Sicht auf die Risiken potenziell unkontrollierbarer KI.
17.2.2024: Was versteht KI?
Die neue generative KI Sora von OpenAI kann beeindruckende Videos generieren, doch es gibt Ungereimtheiten. Was weiß die KI wirklich darüber, wie die physikalische Welt funktioniert?
22.12.2023: Was für ein Jahr!
Die Fortschritte in der KI sind schwindelerregend. Doch Menschen können sich an alles gewöhnen - sogar an den Wandel. Das kann dazu führen, dass wir die Dramatik der Veränderungen unterschätzen.
10.12.2023: Warum ich den Effektiven Altruismus unterstütze
Leuten gegenüber, die behaupten, uneigennützig Gutes zu tun, darf man durchaus misstrauisch sein. Manchmal meinen sie es aber auch ernst. Und einige versuchen sogar, mit Hirn und Verstand "Gutes besser zu tun".
24.11.2023: Was ist los bei OpenAI???
Das Führungschaos bei OpenAI wirft ein düsteres Licht auf die Sicherheit in dem derzeit führenden KI-Unternehmen und macht es umso unverständlicher, dass Deutschland eine wirksame Regulierung im Rahmen des EU AI Acts blockiert.
15.11.2023: KI-Regulierung: Deutschland stürmt aufs eigene Tor
Der EU AI Act bietet Europa die Chance, trotz technischen Rückstands eine aktive Rolle in der globalen KI-Sicherheit zu spielen. Doch Lobbying und falsch verstandenes deutsches Eigeninteresse gefährden dies gerade.
25.8.2023: Macht euch keine Sorgen!
Wenn einem keine Lösung mehr einfällt, bleibt einem nur noch Galgenhumor. Aber vielleicht schafft es AIRA ja doch noch, mir meine "irrationale" Angst vor KI zu nehmen.
4.8.2023: VIRTUA - Mein neuer Roman über die Risiken der KI
Am 15.8. erscheint mein neuer Roman VIRTUA. Darin geht es getreu dem Motto dieses Blogs weniger um künstliche Intelligenz, als vielmehr um menschliche Dummheit.
29.7.2023: Ein freundliches Gesicht
Die zweite Geschichte, die wir im Rahmen des AI Safety Camps entwickelt haben, behandelt das so genannte "Deceptive Alignment": Die KI zeigt uns ein freundliches Gesicht, doch welches Ziel sie wirklich verfolgt, können wir nicht wissen.
20.6.2023: Agentisches Chaos
Im Rahmen des AI Safety Camps habe ich zusammen mit einem Expertenteam zwei plausible KI-Katastrophen-Szenarien entwickelt und eines davon als Video umgesetzt.
3.6.2023: Alles nur ein PR-Gag?
Führende KI-Forscher warnen mit drastischen Worten vor der möglichen Zerstörung der Menschheit durch KI. Nur in Deutschland haben wir den Schuss wieder mal nicht gehört.
24.5.2023: Die Zeit wird knapp
Vor einem Jahr habe ich meine Erwartung, wie viel Zeit uns noch bleibt, drastisch nach unten korrigiert. Das war bei weitem noch nicht drastisch genug.
16.4.2023: Lasst uns gemeinsam die Welt zerstören!
Die Open Source-Bewegung ist einmal angetreten, um Sicherheit, Transparenz und Gerechtigkeit in IT-Anwendungen zu verbessern. Nun trägt sie aktiv dazu bei, dass KI unsere Zukunft bedroht.
25.3.2023: Warum wir die Gefahr durch KI systematisch unterschätzen
Als Joseph Weizenbaum den ersten Chatbot namens "Eliza" programmierte, glaubten viele fälschlicherweise, er sei intelligent. Doch daraus zu folgern, dass auch heutige KI "nicht wirklich intelligent" ist, ist ein Trugschluss.
17.2.2023: Langsam wird es unheimlich
Die Serie der KI-Fortschritte reißt nicht ab. Mit Bing AI präsentiert Microsoft nun eine Chat-KI, die sogar ChatGPT in den Schatten stellt und eine Schreibaufgabe besser lösen kann, als ich es gekonnt hätte. Das hat mich schwer beeindruckt und auch ein wenig beunruhigt.
8.1.2023: Mein Projekt beim AI Safety Camp
Vor einem Jahr habe ich am internationalen AI Safety Camp teilgenommen und dabei enorm viel gelernt. Beim nächsten AI Safety Camp, das im März beginnt, werde ich selbst ein Projekt leiten und dabei versuchen, zusammen mit einem Team realistische Geschichten über unkontrollierbare KI zu entwickeln.
5.12.2022: Tricks mit ChatGPT
Die neue KI von OpenAI hat so einige Tricks auf Lager. Doch man kann sie auch viel zu leicht austricksen ...
24.11.2022: KI, Diplomatie und Macht
Vorgestern hat Meta die KI "Cicero" vorgestellt, die das komplexe Strategiespiel Diplomacy beherrscht. Dabei kommt es vor allem darauf an, seine Mitspieler geschickt zu manipulieren und zu täuschen.
9.10.2022: Unkontrollierbare KI als existenzielles Risiko
In einem neuen Arbeitspapier habe ich vier Hypothesen zu "unkontrollierbarer KI" formuliert. Warum ich lieber darüber rede als über "starke" oder "superintelligente" KI, erläutere ich in diesem Beitrag.
5.8.2022: Wir brauchen rote Linien für KI
Womöglich besteht die einzige Möglichkeit, eine KI-Katastrophe zu verhindern, darin, eine "gefährliche" KI gar nicht erst zu entwickeln. Aber was genau heißt das eigentlich? Welche "roten Linien" sollten wir nicht überschreiten?
10.6.2022: Von Fröschen und Schriftstellern
Heute hatte ich die Gelegenheit, die Bildgenerierungs-KI DALL-E 2 selbst auszuprobieren. Die Ergebnisse können sich wirklich sehen lassen!
14.5.2022: Uns läuft die Zeit davon
Zum dritten Mal in diesem Jahr hat mich eine Erfolgsmeldung im Bereich der Entwicklung äußerst leistungsfähiger KI überrascht und beunruhigt. Es scheint, als hätten die "Optimisten" recht, die glauben, es dauert nur noch wenige Jahre bis zur Entwicklung "starker" KI. Doch das ist kein Grund zum Jubeln ...
26.2.2022: Können wir KI vertrauen?
Gemeinsam mit Jan Hendrik Kirchner habe ich einen englischsprachigen Blogbeitrag über das mögliche Ziel einer KI, das Vertrauen der Menschen in sie zu maximieren, veröffentlicht. Hier gibt es den Link zum Artikel und eine Kurzfassung auf Deutsch.
2.1.2022: KI-Risiken ab jetzt auf YouTube
Zukünftig werde ich meinen YouTube-Kanal auf die realen Konsequenzen der künstlichen Intelligenz ausrichten. Im ersten Video der neuen Serie erkläre ich, warum.
7.12.2021: Das Unverstehbarkeits-Problem
29.10.2021: Das Meta-Problem
7.10.2021: Science-Fiction macht zukunftsblind
22.8.2021: Warum wir mehr Pessimismus brauchen
17.7.2021: Der Kampf gegen die Windmühlenflügel der KI
21.4.2021: Was stimmt bloß nicht mit mir?
8.4.2021: Wie gefährlich ist KI?
21.3.2021: Aliens im Anflug!
11.3.2021: Wettrennen übers Minenfeld
20.2.2021: Was ist eigentlich das Problem?
22.1.2021: Die Fantasie der Maschine
10.12.2020: Wie Rationalität die Welt rettet
2.12.2020: Wir müssen nicht die Technik ändern, sondern uns
8.11.2020: Die Wirklichkeit gewinnt immer
Die nervenaufreibende US-Wahl ist vorbei. Gewonnen hat, wie immer, die Realität.
30.10.2020: Narzisstische Algorithmen
Donald Trump ist ein krankhafter Narzisst. Dass er US-Präsident werden konnte, hat viel mit den Algorithmen sozialer Medien zu tun, die selbst narzisstische Züge tragen.
16.10.2020: Wieviel Zeit bleibt uns noch?
Eine neue Studie kommt zu dem Schluss, dass eine "starke" KI wahrscheinlich um das Jahr 2050 entwickelt wird, vielleicht aber auch schon 2030 - oder erst 2100. Meiner Ansicht nach ist dieser "Tag X" nicht so wichtig, denn ernste Probleme bekommen wir womöglich schon viel früher.
25.9.2020: Können Maschinen ein Bewusstsein haben?
In einem neuem Podcast verneint der Psychiater und Philosoph Professor Fuchs diese Frage kategorisch. Ich sehe das etwas anders.
21.9.2020: Evolution und KI Teil 6: Die Rechte der KI
Im letzten Teil der Miniserie versuche ich, zu skizzieren, wie eine Übertragung des Prinzips eines demokratischen Rechtsstaats auf KI funktionieren könnte.
14.9.2020: Evolution und KI Teil 5: Die Konsequenzen der KI
Im fünften Teil der Miniserie beschäftige ich mich damit, welche Auswirkungen die Evolution der KI auf unsere eigene Zukunft hat und wie wir damit umgehen sollten.
6.9.2020: Evolution und KI Teil 4: Die Beschleunigung der KI
Im vierten Teil der Miniserie stelle ich dar, warum Evolution sich selbst beschleunigt und welche Konsequenzen das für die Zukunft der KI hat.
31.8.2020: Evolution und KI Teil 3: Die Konflikte der KI
Der dritte Teil der Miniserie geht auf den "Rüstungswettlauf" zwischen Räubern und Beute in der Natur und seine Bedeutung für die Evolution der KI ein.
23.8.2020: Evolution und KI Teil 2: Die Vielfalt der KI
Der zweite Teil meiner Miniserie beschäftigt sich mit der ersten Schlussfolgerung aus der Anwendung des Evolutionsprinzips auf die KI-Entwicklung: der Entstehung von immer mehr Vielfalt.
16.8.2020: Evolution und KI Teil 1: Was hat Evolution mit KI zu tun?
In einer Miniserie von Beiträgen analysiere ich, inwieweit Evolution die treibende Kraft hinter der KI-Entwicklung ist und was das für unsere Zukunft bedeutet. Teil 1 erklärt die Grundlagen.
3.8.2020: Brauchen wir mehr KI-Vorschriften?
Soziale Netzwerke und automatische Entscheidungssysteme haben erhebliche Risiken und Nebenwirkungen. Doch im Unterschied beispielsweise zur Pharmaindustrie gibt es weder ein Zulassungsverfahren noch hinreichende unabhängige Überprüfung.
11.7.2020: Hört auf, zu glauben, und fangt an, zu vermuten!
Die Coronakrise zeigt uns mehr als deutlich, wie gefährlich es ist, blind seinen Impulsen zu glauben und die Realität zu ignorieren.
4.6.2020: Warum sind wir so dumm?
Ein Blick in die Nachrichten zeigt, dass die Menschheit in den letzten 80.000 Jahren nicht viel dazu gelernt hat. Unser Gehirn ist nicht für die Welt gemacht, in der wir leben. Umso wichtiger ist es, dass wir lernen, unseren archaischen Instinkten zu widerstehen.
14.5.2020: Vorsicht Exponentialfunktion!
Wie alle hoch ansteckenden Krankheiten breitet sich Covid-19 exponentiell aus. Wir sind nicht gut darin, solche Trends intuitiv einzuschätzen. Leider folgt auch die Entwicklung der KI einer ähnlichen Dynamik, die uns verleiten könnte, zu lange sorglos zu sein.
27.4.2020: Was wir aus der Coronakrise lernen müssen
Wir waren schlecht auf die Covid-19-Pandemie vorbereitet, obwohl ein solches Ereignis absehbar war. Wir müssen daraus lernen, über den Tellerrand der "Normalität" hinauszuschauen.
15.3.2020: Wir brauchen ein mentales Immunsystem!
Falschmeldungen im Internet sind eine Epidemie, die womöglich langfristig mehr Schaden anrichtet als das Coronavirus. Dagegen hilft nur ein gut trainiertes mentales Abwehrsystem.
4.3.2020: Alles nur Panikmache?
Die einen stürmen angesichts des neuen Coronavirus die Supermärkte, die anderen sprechen von "Panikmache" und verharmlosen die Situation. Vor allem zeigt die aktuelle Epidemie, dass wir nicht gut darin sind, uns auf unwahrscheinliche Ereignisse vorzubereiten.
27.2.2020: Zehn Haare in der Suppe
Das angesehene Magazin MIT Technology Review präsentiert zehn bahnbrechende Technologien, die die Welt 2020 verändern werden. Prompt finde ich zehn Haare in der Suppe.
25.2.2020: Technologie ist ansteckend
Das neue Coronavirus lehrt uns, wie fragil unsere global vernetzte Welt ist. KI kann uns helfen, besser mit solchen Epidemien umzugehen, könnte andererseits aber die Gefahr durch neue Seuchen noch verschlimmern.
20.2.2020: EU-Kommission setzt auf "vertrauenswürdige KI"
Besser spät als nie: Das neue Weißbuch der EU-Kommission zum Thema KI beschäftigt sich mit den Risiken und macht Lösungsvorschläge.
11.2.2020: Cryptoleaks: Das Ungleichheitsproblem in der Kryptographie
Washington Post, ZDF und SRF decken heute gemeinsam eine Geheimoperation von BND und CIA während des Kalten Krieges auf, die das Ungleichheitsproblem komplexer Technologie veranschaulicht.
9.2.2020: Werden wir vom „Überwachungs-Kapitalismus“ ferngesteuert?
Die ehemalige Harvard-Professorin Shoshana Zuboff jedenfalls ist davon überzeugt. Ein Beitrag von ihr in der New York Times untermauert eindrucksvoll und eindringlich das Ungleichheits-Problem der KI.
3.2.2020: Wie funktioniert eigentlich KI?
Selbstlernende neuronale Netzwerke sind eigentlich recht simpel aufgebaut, aber ihre Schlussfolgerungen schwer nachzuvollziehen. Das lernt man in dem empfehlenswerten Online-Kurs Elements of AI, den ich testhalber absolviert habe.
1.2.2020: Das Midas-Problem: Die unbeabsichtigten Nebenwirkungen der KI
Wir sollten aufpassen, dass uns Maschinen nicht Wünsche erfüllen, die wir später bereuen - so wie der Sagenkönig Midas.
26.1.2020: B * C * D = AHH: Das Ungleichheits-Problem der KI, erklärt von Yuval Harari
Auf dem Weltwirtschaftsforum in Davos hat der Historiker und Autor Yuval Noah Harari eines der drei Grundprobleme der KI besser erklärt, als ich es je könnte. Unbedingt ansehen!
24.1.2020: Sind wir noch zu retten?
Das Magazin Bulletin of the Atomic Scientists hat gestern seine Weltuntergangsuhr auf 100 Sekunden vor Mitternacht vorgestellt. Nach Meinung der klügsten Köpfe der Welt befinden wir uns in der "gefährlichsten Situation, mit der die Menschheit je konfrontiert war". Laut Nick Bostrom könnte es in Zukunft sogar noch schlimmer werden. Mehr
23.1.2020: Künstliche Dummheit trifft menschliche Ignoranz: Das Kompetenzproblem der KI
Wenn eine KI Fehler macht, weil sie nicht die nötige Kompetenz für eine Entscheidung besitzt, ist dieses "Kompetenzproblem" nur scheinbar ein technisches: Menschen vertrauen KI oft zu sehr, gerade weil sie sie nicht verstehen. Mehr
21.1.2020: Sie wissen, wer du bist
Dass wir bereits heute massive Probleme mit künstlicher Intelligenz haben, kann man an einem vor Kurzem erschienenen Artikel in der New York Times sehen. Heimlich, still und leise hat ein amerikanisches Start-up namens Clearview.ai drei Milliarden Fotos von Facebook, Twitter, Youtube etc. zusammengerafft und stellt diese nun amerikanischen Polizeibehörden zur Verfügung, um darauf Straftäter zu identifizieren. Mehr
20.1.2020: Meine drei Regeln für gutartige KI
Nachdem ich neulich Kritik an Stuart Russells drei Prinzipien für gutartige KI geäußert habe, möchte ich drei eigene Regeln vorschlagen, von denen ich hoffe, dass sie dabei helfen können, das „Value Alignment-Problem“ zu lösen. Ich hoffe, ich lehne mich damit nicht zu weit aus dem Fenster.
13.1.2020: Stuart Russells 3 Prinzipien für „gutartige“ KI (und meine Zweifel daran)
In einem sehr sehenswerten TED Talk erklärt der renommierte KI-Forscher Russell das Problem des "Value Alignment" und schlägt drei Prinzipien zur Lösung vor. Ich wage zu widersprechen.
12.1.2020: Drei fundamentale KI-Probleme
Künstliche Intelligenz bietet viele Chancen, aber sie birgt auch große Risiken. Man kann mindestens drei fundamentale Problemklassen identifizieren. Ich nenne sie das „Kompetenzproblem“, das „Ungleichheitsproblem“ und das „Midas-Problem“.
11.1.2020: Was ist eigentlich KI?
Über „künstliche Intelligenz“ wird viel geredet, aber wie so oft bei Wörtern, die gerade en vogue sind, meint jeder etwas anderes damit. Mir wäre es deshalb am liebsten, den Begriff KI gar nicht zu verwenden und stattdessen von der „Automatisierung von Entscheidungen“ zu sprechen.
10.1.2020: Zehn beliebte Vorurteile über künstliche Intelligenz
Über kaum ein Thema reden so viele Leute, die es nicht verstehen, wie über KI. Ich nehme mich da nicht aus – auch ich verstehe längst nicht alles. Trotzdem versuche ich hier mal ein paar häufige
Vorurteile und Irrtümer auszuräumen.