Technische Erfindungen hatten für die Menschheit seit jeher Vor- und Nachteile: Die Erfindung des Internets ermöglicht es Menschen, mit jeweils so vielen anderen Menschen zu kommunizieren, dass zahlreiche Menschen keinen einzigen mehr zum Reden haben.
Die Erfindung sozialer Netzwerke gibt Menschen die Gelegenheit, andere Menschen über Schneefall im Winter zu informieren.
Und die Erfindung der Smileys, die viele Menschen unter Nachrichten vom Ertrinken von Flüchtlingen oder von Gewalt gegen Polizisten und Einsatzkräfte setzen, bietet die Möglichkeit, diese Menschen als Vollhonks zu identifizieren.
Nun also ChatGPT: ChatGPT wird viele Arbeitsplätze vernichten, bei denen die verrichtete Arbeit banal ist. ChatGPT wird aber auch viele Arbeitsplätze schaffen, bei denen die verrichtete Arbeit banal ist.
Viele behaupten, ChatGPT respektive Künstliche Intelligenz werde zahlreiche Menschen überflüssig machen – aber Menschen wie Til Schweiger und Mathias Döpfner sind das ohnehin.
Die Erfindung von Künstlicher Intelligenz zeitigt viele Gefahren: Zum Beispiel können Menschen mit Künstlicher Intelligenz Fake-Bilder erstellen; im Internet kursiert unter anderem ein Fake-Bild, worauf Donald Trump in Handschellen zu sehen ist. An den Anblick Donald Trumps in Handschellen könnte man sich natürlich gewöhnen; und natürlich hofft man, das wäre kein Fake-Bild, sondern ein Bild aus der Epoche des Realismus.
Eine wichtige Aufgabe wird dennoch darin bestehen, zu verhindern, dass Menschen durch Fake-Bilder denunziert werden. Viele Menschen werden gewiss alles dafür tun, damit andere Menschen weiterhin durch analoge Mittel wie ihren Gerüchten denunziert werden.
Menschen müssen noch mehr als sonst darauf achten, was Fakt und was Fake ist. Der AfD-Bundestagsabgeordnete Norbert Kleinwächter hat von Künstlicher Intelligenz ein Fake-Bild erstellen lassen, worauf mehrere Männer – augenscheinlich Migranten – aggressiv auftreten; und darunter steht: „Nein zu noch mehr Flüchtlingen!“. Dass dieses Bild ein Fake ist, erkennt man schon daran, dass auf diesem Bild eine Hand mit sechs Fingern zu sehen ist. AfD-Anhänger hielten dieses Bild dennoch für echt – unter AfD-Anhängern ist eine Hand mit sechs Fingern nicht unüblich.
Es gibt aber auch noch andere Gefahren: Die Antworten von ChatGPT basieren auf Texten und Daten, die von Menschen erstellt worden sind; und deswegen enthalten sie deren Ansichten und Vorurteile. Das ist nichts Neues. Etwas, das die Ansichten und Vorurteile anderer Menschen sozusagen auf Knopfdruck wiedergibt – das ist Markus Söder.
Markus Söder gibt immer das wieder, was er vorher an Stammtischen, auf dem Oktoberfest und von CSU-Mitgliedern an Input erhalten hat. Auch in dem Fall besteht die Aufgabe darin, diesem Unsinn Tatsachen entgegenzustellen.
Da die Antworten von ChatGPT auf Texten und Daten basieren, mit denen ChatGPT trainiert worden ist, könnten Menschen auf die Idee kommen, ChatGPT mit Texten und Daten zu trainieren, die ChatGPT die von ihnen gewünschten Antworten geben lassen. Damit ChatGPT auf entsprechende Fragen nicht antwortet, die Erde wäre eine Scheibe oder die Bundesregierung bestünde aus Reptiloiden, bedarf es – analog zur Kindersicherung beim Auto – bei ChatGPT einer Wendlersicherung.
FSK 18 – Formelle Schwurbler Kontrolle (IQ-Untergrenze) 18.
Zudem muss sichergestellt werden, dass bei Anfragen zu einer Person keine falschen Angaben erscheinen. Wenn jemand die Frage eingibt, wer Friedrich Merz sei, dann sollte die Antwort nicht lauten: „Friedrich Merz, Bundeskanzler auf Lebenszeit, Herrscher von Gottes Gnaden.“ (Quelle: F.M. aus dem Sauerland, CDU-Vorsitzender, Millionär in der gehobenen Mittelschicht)
In Anbetracht der Tatsache, dass ChatGPT auch auf Texte in Wikipedia-Artikeln zugreift und Wikipedia-Artikel oft von Politikern selbst verfasst respektive bearbeitet worden sind, gilt es zu verhindern, dass ChatGPT bald Antworten liefert wie: „Markus Söder, König von Bayern, hat die Befugnis, alle Atomkraftwerke in Deutschland wieder in Betrieb zu nehmen.“ (Quellen: M.S. aus Nürnberg sowie zehn Maß)
Viele Menschen haben Angst, Künstliche Intelligenz könnte die Macht über die Menschheit übernehmen und sie versklaven; indes hat schon eine Technologie die Macht über einen Großteil der Menschheit übernommen und diesen versklavt: Millionen Menschen lassen sich ihr ganzes Leben und Weltbild vom Fernsehen bestimmen. Allein RTL, die Künstliche Dummheit, beherrscht die Köpfe vieler Menschen derart, dass Länder wie China und Nordkorea erwägen, ihr politisches System auf Privatfernsehen umzustellen.
Ein für die Gesellschaft folgenschweres Paradoxon besteht darin, dass ausgerechnet das Fernsehen kurzsichtig macht.
Das Fernsehen beherrscht die Zuschauer vor allem durch billigen Humor wie dem Eurovision Song Contest und den Spielen der deutschen Fußballnationalmannschaft der Männer.
Es muss dafür gesorgt werden, dass das Fernsehen und Künstliche Intelligenz im Kampf um die Macht über die Menschheit nicht zu unfair werden. Was dabei herauskommt, wenn sich hirn- und seelenlose Konstrukte gegenseitig bekriegen, sieht man beim Dschungelcamp.
Der zwischen dem Fernsehen und Künstlicher Intelligenz aufkommende Machtkampf, den die Künstliche Intelligenz bei fehlender Regulation für sich entscheiden wird, wird ein Großteil der Menschen jedoch gar nicht bemerken. Viele sind zu beschäftigt mit ihren Smartphones, die sie unabhängig von ChatGPT ständig benutzen.
Vor der Entwicklung solcher Technologien wie Künstlicher Intelligenz hätte die Menschheit erst einmal ethische Grundsätze entwickeln sollen, nach denen sie handelt. Künstliche Intelligenz in die Hände von Menschen zu geben ist in vielen Fällen so, als gäbe man Kleinkindern zum Spielen geladene Schusswaffen.
Künstliche Intelligenz ersetzt bei vielen Menschen das Denken. Künstliche Intelligenz macht also nur einen Minijob.
Die Angst vieler Menschen, Künstliche Intelligenz würde die Macht über die Menschheit gewinnen und diese versklaven oder vernichten, braucht man nicht zu teilen. Dennoch ist im Umgang mit Künstlicher Intelligenz Vorsicht geboten: Bei KI-Bildgeneratoren brauchen Menschen nur das einzugeben, was sie sehen möchten; und die Künstliche Intelligenz liefert das gewünschte Ergebnis. Das ist nicht neu – genauso funktioniert das Gehirn vieler Menschen seit jeher. Sie möchten etwas sehen; und ihre falsche Wahrnehmung respektive ihre fehlende Intelligenz liefert das gewünschte Ergebnis.
Anstatt mit Künstlicher Intelligenz aber etwas zu entwickeln, was die falschen Wahrnehmungen vieler Menschen noch verschlimmert, sollten auch diese Menschen endlich etwas anderes entwickeln: ein Denken, das frei von Vorurteilen ist.
Ein Denken, das Klischees, Stereotype sowie Vorurteile von Beweisbarem trennt und verwirft.
Ein Denken, das allen Menschen unvoreingenommen begegnet und diese versteht.
Und wer behauptet, dass dies nicht möglich wäre, beweist nur, dass keine Künstliche Intelligenz gebraucht wird, sondern mehr Emotionale Intelligenz.
(Mehr zu diesem Thema gibt es im Blog-Beitrag vom 18.02.2023)