Chat GPT: das „GPT-4“ ein Einstieg in den Untergang der Menschheit?

Quelle: By TechCrunch - TechCrunch Disrupt San Francisco 2019 - Day 2, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=83634371

SAN FRANCISCO – Die neue Software zur Erstellung von selbst schreibenden Texten und selbst malenden Bildern „ChatGPT“ wirft die Frage nach einem Kontrollverlust auf. Tech-Gurus wie Steve Wozniak und Elon Musk nun die Entwicklung zu bremsen, um die Gefahr dieser Art von  „Künstlicher Intelligenz“ erkennen zu können.

.

.

Künstliche Intelligenz?

Eine „neue“ Technologie versetzt derzeit Viele in Begeisterung, oder Panik, je nachdem auf welcher  Seite man steht:

Seit Ende 2022 sind neuartige Software-Tools auf dem Markt, die auf der Basis von wenigen Vorgaben selbsttätig Texte oder Bilder verfassen können, was wiederum weder dem Text, noch dem Bild anzusehen ist.

Dies wird seither als „künstliche Intelligenz“ bezeichnet, womit die Verwirrung bereits beginnt, denn es gibt keine „künstliche Intelligenz“. So argumentiert auch der vielbeachtete IT-Philosoph Jaron Lanier, im Guardian

„Diese Idee, menschliche Fähigkeiten zu übertreffen, ist albern, weil sie aus menschlichen Fähigkeiten besteht.“

Er hat daher keine Angst davor, daß ChatGBT als aktuelle Form von „Künstlicher Intelligenz“ den Untergang der Menschheit einleiten könnte, sondern daß sie vielmehr die Bevölkerung zum Wahnsinn treibt, weil ggf. Fiktion nur noch schwer von der Realität unterscheidbar ist.

Intelligenz ist eine Eigenschaft, die ausschließlich dem Menschen eigen ist und sie bezeichnet die Fähigkeit, aus vorgegebenen Informationen/Gedanken. etc. nicht etwa Splitter, oder Teile davon neu anzuordnen, sondern die Fähigkeit etwas komplett Neues zu schaffen. Das genau schafft die so bezeichnete „künstliche Intelligenz“ aber nicht.

Vielmehr greift  diese „Künstliche Intelligenz“ auf „Generative Pre-Trained Transformers“ ( GPT ) zurück. Hierbei handelt es sich um eine Familie von Sprachmodellen , die durch die Firma OpenAI entwickelt wurden und auf einem großen Korpus von bestehenden Textdaten trainiert werden.

Das „Pre-Trained“ / „Vortraining“ im Namen „GBT“ bezieht sich auf den anfänglichen Trainingsprozess mit einem großen Textkorpus, in dem das Modell lernt, das nächste Wort in einer Passage „vorherzusagen“.

Am Ende können sie dann unter Verwendung mehrerer Blöcke für verschiedene Aufgaben der Verarbeitung natürlicher Sprache (NLP) wie Textgenerierung , Sprachübersetzung und Textklassifizierung weiterentwickelt und feinabgestimmt werden.

Das alles hat also mit gigantischen Rechenkapazitäten zu tun und nichts mit „Intelligenz“!

Doch die Tatsache, daß der Begriff „Intelligenz“ mit dem ihr widersprechenden Begriff „künstlich“ zum neuen Modebegriff „Künstliche Intelligenz“ zusammengepresst wird, zeigt, daß die meisten Nutzer dieses Begriffs nicht wissen, wovon sie eigentlich reden. Nein, Software ist nicht etwa „intelligent“ geworden, sondern Software ist durch die hohe Fähigkeit Daten zu  verarbeiten und zu speichern inzwischen in der Lage nicht nur auf der logischen Ebene zu arbeiten, sondern auch auf der „Bedeutungsebene“ von Sätzen, also von Sätzen, oder Texten die Ähnlichkeiten miteinander haben.

Vermutlich wird hierbei, ausgehend von bekannten Texten, die Eingabe des Nutzers nach mehreren Aspekten hin analysiert. Dann dürften diese Fragmente in irgend einer Art Regelkreis so  lange verarbeitet werden, bis ein Ergebnis herauskommt, das vordefinierten Normen entspricht. Wenn ChatGBT solche Muster nutzt,  dann hat das rein gar nichts mit „Intelligenz“ zu tun, sondern  mit Rechenleistung.  Leider legen die Programmierer aber bisher ihre Codes nicht offen, sodaß hier nur  eine Spekulation möglich ist.

Spannend dürfte in diesem Zusammenhang die Frage sein, ob die Eingaben der Nutzer dann selbst weiterverarbeitet werden, was grundsätzlich zu erwarten ist, da das Gesamtsystem ja „lernen“ soll. In diesem Fall dürfte es dann noch spannenden Diskussionen mit den Datenschutzbehörden geben, wenn nämlich der Nutzer v0n ChatGBT als Trainer des Systems missbraucht wird, indem dessen Eingaben dabei helfen, die Eingaben einer weiteren Person zu einer für diese weitere Person befriedigenden Antwort zu führen und diese weitere Person davon gar nichts weiß!

Auch die Technologie, die damit bezeichnet wird, sollte eigentlich keine Sorgen bereiten, denn es würde genügen, den Gedanken der Verkehrssicherungspflicht  auf ihn anzuwenden und schon wären die meisten damit in Verbindung gesetzten Probleme geklärt. Dann wäre nämlich derjenige, der das Produkt in Verkehr bringt, für die Verkehrssicherheit des Produkts verantwortlich und müsste für den Schaden haften, den sein Produkt anrichtet!

.

Die Einigkeit der Warner

Das gemeinnützige Institut „Future of Life“ veröffentlichte, desen ungeachtet aber dennoch eine breit angelegte Warnung vor „Künstlicher Intelligenz“. Das Besondere: Diese Warnung vereinigt bereits mehr als 1000 Personen. Darunter

  • Elon Musk
  • Steve Wozniak
  • Emad Mostaque, Chef der KI-Firma Stability AI,
  • Entwickler von Googles KI-Tochter DeepMind. die KI-Vordenker
  • Stuart Russel,
  • Gary Marcus und
  • Yoshua Bengio.
.

Klaus Schwab bringt die KI mit der Beherrschung der Welt in Verbindung

Die eidringlichste Warnung  vor den Gefahren der KI  dürfte wohl von dem hoch umstrittenen Klaus Schwab ausgegangen sein, wobei bezweifelt werden kann, daß er seine Aussagen dazu als „Warnung“ verfasst hatte. Schwab stellte in der ihm eigenen, wenig bescheidenen Art und Weise fest:

„Wer die Künstliche Intelligenz kontrolliert/beherrscht… wird die Welt kontrollieren/beherrschen.“

.

„Future of Life“ fordert ein Primat der Politik

Das gemeinnützige Institut „Future of Life“ fordert ein Primat der Politik und setzt sich derzeit für einen Stopp der Forschung ein, damit die Politik den augenblicklich erreichten Stand der Technik erst wieder einmal einholen kann.

Sobald KI-Systeme selbst intelligentere Systeme entwerfen können, könnten wir eine „Intelligenzexplosion“ erleben, die die Menschheit sehr schnell hinter sich lässt. Dies könnte Armut oder Krieg beseitigen; es könnte uns auch auslöschen.

Dieses Risiko ergibt sich nicht aus der potenziellen Böswilligkeit oder dem Bewusstsein der KI, sondern aus ihrer Kompetenz – mit anderen Worten, nicht aus dem, was sie fühlt, sondern aus dem, was sie tut. Menschen könnten beispielsweise die Kontrolle über ein Hochleistungssystem verlieren, das darauf programmiert ist, etwas Zerstörerisches mit verheerenden Auswirkungen zu tun. Und selbst wenn eine KI darauf programmiert ist, etwas Nützliches zu tun, könnte sie dennoch eine destruktive Methode entwickeln, um dieses Ziel zu erreichen.

KI braucht kein Bewusstsein, um ihre Ziele zu verfolgen, genauso wenig wie wärmesuchende Raketen. Ebenso geht die Gefahr nicht von Robotern per se aus, sondern von der Intelligenz selbst, die nichts weiter als eine Internetverbindung benötigt, um uns unkalkulierbaren Schaden zuzufügen.

.

Der ChatGBT-Chef Sam Altmann warnt vor seinem eigenen Produkt

Altman ist nicht bescheiden, wenn er sein eigenes Produkt einordnet. Es könnte seiner Auffassung  nach

„die größte Technologie sein könnte, die die Menschheit bisher entwickelt hat“.

Aber es ist auch erstaunlich, daß der ChatGBT-Chef vor seinem eigenen Produkt warnt.

„Wir müssen hier vorsichtig sein. Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben.“,

erklärte der 37-jährige Altman gegenüber ABC News und ergänzte:

„Ich bin besonders besorgt darüber, dass diese Modelle für groß angelegte Desinformation verwendet werden könnten … Jetzt, da sie besser darin werden, Computercode zu schreiben, könnten [sie] für offensive Cyberangriffe verwendet werden.“

Und Altmann macht noch auf einen weiteren Punkt aufmerksam:

„Das, was ich versuche, die Leute am meisten zu warnen, ist das, was wir das ‚Halluzinationsproblem‘ nennen“,

sagte Altman gegenüber ABC News .

„Das Modell wird Dinge selbstbewusst so ausdrücken, als wären sie Tatsachen (aber sie sind vollständig erfunden.“

Der ChatGBT-Chef stiehlt sich aus der Verantwortung

Interessant ist, daß Altmann die Verantwortung nicht bei sich selbst sucht, sondern die Gesellschaft dafür verantwortlich macht, wenn sein Produkt einen Schaden  anrichtet. Altman ist der Meinung , daß KI grundsätzlich reguliert werden müsse.

„Es wird andere Leute geben, die einige der Sicherheitsgrenzen, die wir auferlegt haben, nicht einhalten. Die Gesellschaft hat meiner Meinung nach nur begrenzt Zeit, um herauszufinden, wie sie darauf reagieren, wie sie das regulieren und wie sie damit umgehen soll.“

 

.

Fang Bingxing, der Verantwortliche für Chinas digitale Abschottung warnt

.

Nachtrag: China hat eine Lösung

Gemäß Pressemitteilungen hat China am Dienstag, den 4.4. eine „Lösung“ präsentiert, die typisch chinesisch ist und auch so zu erwarten war. Der chinesische Bot (ChatGBT lassen die Behöden Chinas nicht zu) wird einer „Sicherheitsprüfung“ unterzogen. Praktisch bedeutet dies offenbar, daß der China-Bot ausschließlich auf KP-konformes Material zugreifen kann und darf.

Um es bildlich zu verdeutlichen darf der China-Bot lediglich die staatlich akzeptierten Werke als Grundlage seiner eigenen Arbeit nehmen. Nehmen wir rein beispielhaft und nur zur Illustrierung an, daß dies z.B. die Komplettausgabe der Leninwerke wäre. Wenn dem so wäre, wäre es logisch unmöglich, daß dieser Bot etwas anderes ausgeben könnte, als irgend einen Mix, der aus Fragmenten der Leninwerke bestünde. Daran erkennt man auch, daß diese „künstliche Intelligenz“ alles Andere als intelligent ist:

Inmitten der Euphorie um die sogenannte generative künstliche Intelligenz will China die Technologie regulieren: Produkte, die mit generativer künstlicher Intelligenz betrieben werden, müssen vor ihrer Bereitstellung einer „Sicherheitsprüfung“ unterzogen werden, so ein von der Cyberspace Administration veröffentlichter Verordnungsentwurf China am Dienstag: Laut AFP hat die Regulierungsbehörde, die ihren Text vor der Verabschiedung einer öffentlichen Kommentierung unterzieht, nicht gesagt, wann die Verordnung in Kraft treten wird.

Aber die von künstlicher Intelligenz generierten Inhalte müssen „grundlegende sozialistische Werte widerspiegeln und dürfen keine Elemente enthalten, die mit der Untergrabung der Staatsmacht in Verbindung stehen“. Es soll die „solide Entwicklung und standardisierte Umsetzung der Technologie der generativen künstlichen Intelligenz“ sicherstellen.

.

Nachtrag: Elon Musk spricht über die Gefahren von ChatGBT

Wir verlinken hier eine Übersetzung eines Gesprächs zwischen Elon Musk und Tucker Carlson, die wir für hörenswert halten. Die damit verbundene unvermeidliche Meinung von „MARKmobil“ teilen wir  nicht, ist aber mit dem untigen Beitrag untrennbar verbunden.