Da über das Thema KI – angeblich die Abkürzung für Künstliche Intelligenz – auf allen Kanälen gesprochen und geschrieben wird und vor allem die Gefahren dieser Technologie herbeibegerufen werden, von denen die meisten Elemente schön immer präsent waren, nämlich die Täuschung, die Manipulation bis hin zur Ersetzung von Kreativität oder Forschung auf allen Bereichen, frage ich mich, ob man da nicht den Fokus ganz falsch legt. Second Life wird first, Bedenken third?
Ich bin ein Kind der 70er Jahre. Daher stelle ich mir immer auch die Frage, wer ein Interesse daran haben könnte, zum Beispiel einen Untergang oder eine Katastrophe zu prognostizieren, wenn nicht gerade eine akute Gefahrensituation besteht. Eine Gefahr durch KI, die in so kurzer Zeit die Diskurse tatsächlich beherrscht, ist eigenartig. Natürlich ist auch die Angst vor Technologieentwicklung seit ewig aber aucb speziell seit Buchdruck und Dampfmaschine nix Neues. Wenn so jede Technologie vorrangig als Gefahr gesehen wird, werden die Technologien, die tatsächlich Gefahren bedeuten, unsichtbarer. KI ist dabei allein als Projektion ein Problem, sie selbst hat mit Intelligenz eher nichts zu schaffen, aber mit der Kunst des Blendens. Und der Great Pretender ist ideologiekritisch gesehen eher ein Geschäftsmodell, wie jeder Hype. Es spielt denen in die Hände, die daraus Kapital zu schlagen wollen.
Ariel wäscht nicht nur sauber, sondern rein. Und KI ist klüger als nur intelligent.
Was bei Ariel geht, geht auch bei open AI (was daran “open” ist, muss mir auch noch mal jemand erklären).
Immer geht es dabei um die Verarbeitung von Wissen, so als sei Wissen und dessen Verarbeitung ein oder das Hauptmerkmal von Intelligenz. Wenn man aber die Entwicklung von Wissen insgesamt ansieht, ist das nur ein Teil der Erschaffung von Neuem (in Kunst und Forschung). Der andere Teil scheint mir das unlösbare Problem von Künstlicher Intelligenz schlechthin zu sein: Das Nicht-Wissen, das Auslassen, die Entwertung unwichtiger Bestandteile von Denken und Schöpfen.
Viel kann nur dann viel werden, wenn man weiß, was man nicht wissen muss. Wie aber lernt man, nicht zu wissen?
Die Gefahren, die aus der Weiterentwicklung von KI entstehen, sind ebenso unvermeidlich wie unregulierbar. Das zumindest ist die Erfahrung alle wissenschaftlicher Forschung. Das heißt ja nicht, dass man es nicht versuchen sollte, aber wahrscheinlich ist das ein sinnloser Kampf, deren Tempo die Waffe KI (bzw. deren Entwickler:innen) selbst vorgibt. KI wird viel Können, auch in Informationsverarbeitung und Kreativität, man wird auch den Human Touch – also Fehler – systematisch einprogrammieren können. Vor allem macht KI sowieso Fehler am laufenden Band. Das ist zwar ungeheuerlich und eigentlich kann das auch niemand erklären.
Nun ist das Fehlermachen auch nicht etwas, was nur Maschinen vorbehalten wäre. Aus Fehlern kann man allerdings viel lernen, wenn man weiß, wie Fehler entstehen. Die meisten Fehler bei KI entstehen offenbar eben nicht durch mangelndes Wissen, sondern durch Probleme bei der Verarbeitung von Wissen. Ein Thema für sich. Der Satz: “Ein Computer kann alles, aber sonst nichts” stimmt deshalb.
Interessant in dem Zusammenhang: Wieso wird das Chaos in den beiden größten Nationen der Welt besonders gefüchtet?
Mehr Infografiken finden Sie bei Statista