SAN FRANCISCO – Die neue Software zur Erstellung von selbst schreibenden Texten und selbst malenden Bildern „ChatGPT“ wirft die Frage nach einem Kontrollverlust auf. Tech-Gurus wie Steve Wozniak und Elon Musk nun die Entwicklung zu bremsen, um die Gefahr dieser Art von „Künstlicher Intelligenz“ erkennen zu können.
.
.
Künstliche Intelligenz?
Eine „neue“ Technologie versetzt derzeit Viele in Begeisterung, oder Panik, je nachdem auf welcher Seite man steht:
Seit Ende 2022 sind neuartige Software-Tools auf dem Markt, die auf der Basis von wenigen Vorgaben selbsttätig Texte oder Bilder verfassen können, was wiederum weder dem Text, noch dem Bild anzusehen ist.
Dies wird seither als „künstliche Intelligenz“ bezeichnet, womit die Verwirrung bereits beginnt, denn es gibt keine „künstliche Intelligenz“. So argumentiert auch der vielbeachtete IT-Philosoph Jaron Lanier, im Guardian
Er hat daher keine Angst davor, daß ChatGBT als aktuelle Form von „Künstlicher Intelligenz“ den Untergang der Menschheit einleiten könnte, sondern daß sie vielmehr die Bevölkerung zum Wahnsinn treibt, weil ggf. Fiktion nur noch schwer von der Realität unterscheidbar ist.
Intelligenz ist eine Eigenschaft, die ausschließlich dem Menschen eigen ist und sie bezeichnet die Fähigkeit, aus vorgegebenen Informationen/Gedanken. etc. nicht etwa Splitter, oder Teile davon neu anzuordnen, sondern die Fähigkeit etwas komplett Neues zu schaffen. Das genau schafft die so bezeichnete „künstliche Intelligenz“ aber nicht.
Vielmehr greift diese „Künstliche Intelligenz“ auf „Generative Pre-Trained Transformers“ ( GPT ) zurück. Hierbei handelt es sich um eine Familie von Sprachmodellen , die durch die Firma OpenAI entwickelt wurden und auf einem großen Korpus von bestehenden Textdaten trainiert werden.
Das „Pre-Trained“ / „Vortraining“ im Namen „GBT“ bezieht sich auf den anfänglichen Trainingsprozess mit einem großen Textkorpus, in dem das Modell lernt, das nächste Wort in einer Passage „vorherzusagen“.
Am Ende können sie dann unter Verwendung mehrerer Blöcke für verschiedene Aufgaben der Verarbeitung natürlicher Sprache (NLP) wie Textgenerierung , Sprachübersetzung und Textklassifizierung weiterentwickelt und feinabgestimmt werden.
Das alles hat also mit gigantischen Rechenkapazitäten zu tun und nichts mit „Intelligenz“!
Doch die Tatsache, daß der Begriff „Intelligenz“ mit dem ihr widersprechenden Begriff „künstlich“ zum neuen Modebegriff „Künstliche Intelligenz“ zusammengepresst wird, zeigt, daß die meisten Nutzer dieses Begriffs nicht wissen, wovon sie eigentlich reden. Nein, Software ist nicht etwa „intelligent“ geworden, sondern Software ist durch die hohe Fähigkeit Daten zu verarbeiten und zu speichern inzwischen in der Lage nicht nur auf der logischen Ebene zu arbeiten, sondern auch auf der „Bedeutungsebene“ von Sätzen, also von Sätzen, oder Texten die Ähnlichkeiten miteinander haben.
Vermutlich wird hierbei, ausgehend von bekannten Texten, die Eingabe des Nutzers nach mehreren Aspekten hin analysiert. Dann dürften diese Fragmente in irgend einer Art Regelkreis so lange verarbeitet werden, bis ein Ergebnis herauskommt, das vordefinierten Normen entspricht. Wenn ChatGBT solche Muster nutzt, dann hat das rein gar nichts mit „Intelligenz“ zu tun, sondern mit Rechenleistung. Leider legen die Programmierer aber bisher ihre Codes nicht offen, sodaß hier nur eine Spekulation möglich ist.
Spannend dürfte in diesem Zusammenhang die Frage sein, ob die Eingaben der Nutzer dann selbst weiterverarbeitet werden, was grundsätzlich zu erwarten ist, da das Gesamtsystem ja „lernen“ soll. In diesem Fall dürfte es dann noch spannenden Diskussionen mit den Datenschutzbehörden geben, wenn nämlich der Nutzer v0n ChatGBT als Trainer des Systems missbraucht wird, indem dessen Eingaben dabei helfen, die Eingaben einer weiteren Person zu einer für diese weitere Person befriedigenden Antwort zu führen und diese weitere Person davon gar nichts weiß!
Auch die Technologie, die damit bezeichnet wird, sollte eigentlich keine Sorgen bereiten, denn es würde genügen, den Gedanken der Verkehrssicherungspflicht auf ihn anzuwenden und schon wären die meisten damit in Verbindung gesetzten Probleme geklärt. Dann wäre nämlich derjenige, der das Produkt in Verkehr bringt, für die Verkehrssicherheit des Produkts verantwortlich und müsste für den Schaden haften, den sein Produkt anrichtet!
.
Die Einigkeit der Warner
Das gemeinnützige Institut „Future of Life“ veröffentlichte, desen ungeachtet aber dennoch eine breit angelegte Warnung vor „Künstlicher Intelligenz“. Das Besondere: Diese Warnung vereinigt bereits mehr als 1000 Personen. Darunter
- Elon Musk
- Steve Wozniak
- Emad Mostaque, Chef der KI-Firma Stability AI,
- Entwickler von Googles KI-Tochter DeepMind. die KI-Vordenker
- Stuart Russel,
- Gary Marcus und
- Yoshua Bengio.
Klaus Schwab bringt die KI mit der Beherrschung der Welt in Verbindung
Die eidringlichste Warnung vor den Gefahren der KI dürfte wohl von dem hoch umstrittenen Klaus Schwab ausgegangen sein, wobei bezweifelt werden kann, daß er seine Aussagen dazu als „Warnung“ verfasst hatte. Schwab stellte in der ihm eigenen, wenig bescheidenen Art und Weise fest:
„Wer die Künstliche Intelligenz kontrolliert/beherrscht… wird die Welt kontrollieren/beherrschen.“
.
„Future of Life“ fordert ein Primat der Politik
Das gemeinnützige Institut „Future of Life“ fordert ein Primat der Politik und setzt sich derzeit für einen Stopp der Forschung ein, damit die Politik den augenblicklich erreichten Stand der Technik erst wieder einmal einholen kann.
.
Der ChatGBT-Chef Sam Altmann warnt vor seinem eigenen Produkt
Altman ist nicht bescheiden, wenn er sein eigenes Produkt einordnet. Es könnte seiner Auffassung nach
„die größte Technologie sein könnte, die die Menschheit bisher entwickelt hat“.
Aber es ist auch erstaunlich, daß der ChatGBT-Chef vor seinem eigenen Produkt warnt.
„Wir müssen hier vorsichtig sein. Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben.“,
erklärte der 37-jährige Altman gegenüber ABC News und ergänzte:
„Ich bin besonders besorgt darüber, dass diese Modelle für groß angelegte Desinformation verwendet werden könnten … Jetzt, da sie besser darin werden, Computercode zu schreiben, könnten [sie] für offensive Cyberangriffe verwendet werden.“
Und Altmann macht noch auf einen weiteren Punkt aufmerksam:
„Das, was ich versuche, die Leute am meisten zu warnen, ist das, was wir das ‚Halluzinationsproblem‘ nennen“,
sagte Altman gegenüber ABC News .
„Das Modell wird Dinge selbstbewusst so ausdrücken, als wären sie Tatsachen (aber sie sind vollständig erfunden.“
Der ChatGBT-Chef stiehlt sich aus der Verantwortung
Interessant ist, daß Altmann die Verantwortung nicht bei sich selbst sucht, sondern die Gesellschaft dafür verantwortlich macht, wenn sein Produkt einen Schaden anrichtet. Altman ist der Meinung , daß KI grundsätzlich reguliert werden müsse.
„Es wird andere Leute geben, die einige der Sicherheitsgrenzen, die wir auferlegt haben, nicht einhalten. Die Gesellschaft hat meiner Meinung nach nur begrenzt Zeit, um herauszufinden, wie sie darauf reagieren, wie sie das regulieren und wie sie damit umgehen soll.“
Fang Bingxing, der Verantwortliche für Chinas digitale Abschottung warnt
Auch Fang Bingxing, der Vater von Chinas sogenannter „Great Firewall“ ist besorgt über GPT-4 und ähnliche KI. Nach Überzeugung von Fang könnten solche Chatbots zu einem „Informationskokon“ führen (im Gegensatz zum freien Informationsfluss in China?)
erklärte er gegenüber Red Star News, einem Medienpartner der staatlich unterstützten Chengdu Economic Daily.
Fang warnte auch davor, dass die Weiterentwicklung der KI eine Bedrohung für die Menschheit darstellen könnte.
.
Nachtrag: China hat eine Lösung
Gemäß Pressemitteilungen hat China am Dienstag, den 4.4. eine „Lösung“ präsentiert, die typisch chinesisch ist und auch so zu erwarten war. Der chinesische Bot (ChatGBT lassen die Behöden Chinas nicht zu) wird einer „Sicherheitsprüfung“ unterzogen. Praktisch bedeutet dies offenbar, daß der China-Bot ausschließlich auf KP-konformes Material zugreifen kann und darf.
Um es bildlich zu verdeutlichen darf der China-Bot lediglich die staatlich akzeptierten Werke als Grundlage seiner eigenen Arbeit nehmen. Nehmen wir rein beispielhaft und nur zur Illustrierung an, daß dies z.B. die Komplettausgabe der Leninwerke wäre. Wenn dem so wäre, wäre es logisch unmöglich, daß dieser Bot etwas anderes ausgeben könnte, als irgend einen Mix, der aus Fragmenten der Leninwerke bestünde. Daran erkennt man auch, daß diese „künstliche Intelligenz“ alles Andere als intelligent ist:
.
Nachtrag: Elon Musk spricht über die Gefahren von ChatGBT
Wir verlinken hier eine Übersetzung eines Gesprächs zwischen Elon Musk und Tucker Carlson, die wir für hörenswert halten. Die damit verbundene unvermeidliche Meinung von „MARKmobil“ teilen wir nicht, ist aber mit dem untigen Beitrag untrennbar verbunden.
MARKmobil Aktuell – "Redefreiheitsfanatiker"
Elon Musk verrät im Interview mit Tucker Carlson, dass er eine eigene Wahrheits-Intelligenz aufbauen will – als Gegenpol zu Google und Microsoft, die ihrer künstlichen Intelligenz inzwischen aktiv das Lügen beibringen. pic.twitter.com/nexz6imXl2— MARKmobil (@MARKmobilTV) April 19, 2023