Tucker Carlson: Sam Altman über KI, Tod, Moral und ein mögliches Verbrechen im Umfeld von OpenAI

Quelle: Von Steve Jurvetson - https://www.flickr.com/photos/jurvetson/54446118165/, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=164150862

SAN FRANCISCO – den Bürgern etwas Freiheit wegnehmen um die Welt mit Hilfe von ChatGBT etwas moralischer zu machen ist wohl die Quintessenz der Moral des Sam Altmann.

.

.

In einem Interview mit Tucker Carlson liefert der Chat-GPT-Chef ungewöhnlich intime Einblicke. Einereits gab Altman zu, mit seinem ChatGBT das Ziel zu verfolgen, den moralischen Durchschnitt, im Sinne eines kollektiven moralischen Blick der Nutzerbasis zu reflektieren. Das aber ist das genaue Gegenteil von dem was „Moral“ eigentlich bedeutet. Moral ist mehr als der Durchschnitt der Gesamtmoral. Und Altman gibt zu, aktuell in Fällen von unheilbarer Krankheit ChatGPT zu ermöglichen einem Fragesteller den Hinwies zu geben, wie er sich umbringen könnte.

.

Kann „Künstliche Intelligenz“ Moral und Religion?

In einem Interview mit OpenAI-CEO Sam Altman äußerte der ehemalige Fox-News-Moderator Tucker Carlson diese Woche seinen Glauben an eine Verschwörungstheorie, wonach der ehemalige OpenAI-Forscher Suchir Balaji „definitiv ermordet“ worden sei. Der Tod des Forschers im November 2024, der von der Polizei in San Francisco als Selbstmord eingestuft wurde, folgte auf seine Online-Erklärungen und einen Artikel in der New York Times, in denen er die OpenAI-Technologie wegen angeblicher Urheberrechtsverletzungen anprangerte.

In ihrem Schlagabtausch nach etwa einer halben Stunde Chat erklärt Carlson unverblümt seine Gründe für seinen Glauben an die Theorie und sagt: „[Baljis] Mutter behauptet, er sei auf Ihren Befehl hin ermordet worden.“ Altman erwähnt die Polizeiberichte und die Ergebnisse einer Untersuchung und bemerkt später: „Ich fühle mich seltsam und traurig, darüber zu diskutieren. Mich verteidigen zu müssen, erscheint mir völlig verrückt, und Sie beschuldigen mich ein wenig“, obwohl Carlson dies bestreitet.

Balaji hatte erklärt , er könne mithilfe mathematischer Analysen die Schlussfolgerung stützen, dass „OpenAIs Verwendung urheberrechtlich geschützter Daten gegen das Gesetz verstößt und Technologien wie ChatGPT dem Internet schaden“. Er sollte in der Klage der Times gegen OpenAI und Microsoft aussagen. In einem Bericht von Fortune zitierte Anwälte für geistiges Eigentum sagten jedoch, seine Argumente schienen das Urheberrecht misszuverstehen. Außerdem wurde darauf hingewiesen, dass er keine neuen Insiderinformationen über das Unternehmen veröffentlicht habe, wie es einige ehemalige Mitarbeiter, die zu Whistleblowern geworden sind, getan haben.

.

Der Fall:

Suchir Balaji war ein US-amerikanischer Forscher für künstliche Intelligenz. Er starb mit 26 Jahren und wenige Wochen, nachdem er seinem ehemaligen Arbeitgeber OpenAI vorgeworfen hatte, gegen das US-amerikanische Urheberrecht verstoßen zu haben. Balajis Tod erregte aufgrund von Vorwürfen eines Fremdverschuldens seiner Eltern und anderer sowie seines angeblichen Whistleblower- Status große Aufmerksamkeit.

Die Ermittlungen des San Francisco Police Department ergaben jedoch offiziell

„keine Hinweise auf ein Fremdverschulden“,

und der leitende Gerichtsmediziner kam zu dem Schluss, dass es sich um Selbstmord handelte. Doch ein Privatgutachten der Eltern kam zum gegenteiligen Ergebnis:

In einem Interview mit der New York Times vom 23. Oktober 2024 argumentierte Balaji, dass Produkte wie ChatGPT gegen das US-amerikanische Urheberrecht verstoßen, weil sie auf Produkten von Wettbewerbern trainiert werden und die Ergebnisse der Chatbots diese Produkte imitieren und ersetzen können.

Er sagte, dass ChatGPT und ähnliche Chatbots die wirtschaftliche Rentabilität der Personen und Organisationen ruinieren, die die Daten produzieren, mit denen die KI-Systeme trainiert werden. Der Artikel der New York Times enthält eine Zusammenfassung von Balajis Essay

„Wann erfüllt generative KI die Anforderungen für fair use? “,

der Anfang der Woche auf seiner persönlichen Website veröffentlicht wurde. Darin analysierte er mathematisch die Ergebnisse von Chatbots wie ChatGPT und argumentierte, dass diese den Vier-Faktoren-Test zur Bestimmung von fair use nach US-Urheberrecht nicht erfüllen. Er schlägt außerdem vor, dass dieses Argument auch auf andere Produkte der generativen KI anwendbar sei. Zu dieser Zeit wurde OpenAI von namhaften Autoren und Nachrichtenverlagen, darunter der New York Times, wegen Urheberrechtsverletzung verklagt.

In einer Gerichtsakte vom 18. November 2024 wurde Balaji von den Anwälten der New York Times als eine von mehreren Personen identifiziert, die möglicherweise über „relevante Dokumente“ im Urheberrechtsstreit gegen OpenAI verfügen. Mehrere der in den Gerichtsakten des Nachrichtendienstes als potenziell im Besitz relevanter Dokumente genannten Personen waren ehemalige oder aktuelle OpenAI-Mitarbeiter. Balaji hatte angekündigt, gegen OpenAI auszusagen. Anders als andere OpenAI-Whistleblower gab Balaji keine neuen Informationen über das Unternehmen preis. Der Artikel der New York Times zitiert Mark Lemley, Rechtsprofessor an der Stanford University, der nicht der Meinung war, dass generative KI-Dienste gegen das Urheberrecht verstoßen, und den Anwalt für geistiges Eigentum (IP) Bradley Hulbert, der sagte, ein neues Gesetz sei möglicherweise notwendig, um die Frage der Rechtmäßigkeit zu klären.

Monate nach Balajis Tod, der erhebliche öffentliche Aufmerksamkeit erregte, sagte Hulbert dem Fortune- Magazin, Balajis Essay

„liest sich wie] die Argumentation eines wirklich klugen Nicht-Juristen, der sich in das Thema eingelesen hat, aber kein umfassendes Verständnis besitzt.“ Ein anderer IP-Anwalt, der von dem Magazin aufgrund von Bedenken hinsichtlich Verschwörungstheorien rund um Balajis Tod anonym zitiert wurde, sagte, Balajis Analyse „missversteht das Gesetz in einigen grundlegenden Punkten.“

OpenAI argumentierte, dass seine Software „auf fairem Gebrauch und den damit verbundenen internationalen Urheberrechtsprinzipien basiert, die fair für Urheber sind und Innovationen unterstützen“ und „auf öffentlich verfügbaren Daten trainiert“ wurde.

Balajis Mutter ist überzeugt, er sei ermordet worden, um OpenAI und anderen KI-Unternehmen zu nützen. Sie begründete dies mit dem Fehlen einer Notiz und der Ergebnisse der von ihr beauftragten Experten. Anfang des Jahres trat sie in Carlsons Show auf, in einer Folge mit dem Titel

„Mutter des vermutlich ermordeten OpenAI-Whistleblowers enthüllt alles und fordert Untersuchung von Sam Altman“.

Ihre Ansicht wird seit Balajis Tod von Elon Musk und vielen Menschen aus seinem Umfeld sowie mehreren gewählten Amtsträgern vertreten. Sie können den relevanten Abschnitt des Interviews hier ansehen, aber das ist, was Carlson und Altman sagten, das herausstach:

Carlson: „… er wurde definitiv ermordet, denke ich… es gab natürlich Anzeichen eines Kampfes. Die Überwachungskamera, die Leitungen waren durchtrennt. Er hatte gerade Essen bestellt, war mit seinen Freunden aus dem Urlaub auf Catalina Island zurückgekommen. Keine Anzeichen von Selbstmordgedanken. Keine Nachricht und kein Verhalten. Er hatte gerade mit einem Familienmitglied telefoniert.

Und dann wurde er tot aufgefunden, in mehreren Räumen war Blut zu sehen. Das ist also unmöglich. Es scheint ganz offensichtlich, dass er ermordet wurde. Haben Sie mit den Behörden darüber gesprochen?“

Altman: Ich habe nicht mit den Behörden darüber gesprochen.

Carlson: „Ähm, und seine Mutter behauptet, er sei auf Ihren Befehl ermordet worden.“

Altman: „Glauben Sie das?“

Carlson: „Ich – ich, also, ich frage.“

Altman: „Ich meine … Sie, Sie haben es gerade gesagt, glauben Sie das also?

Carlson: „Ich denke, es lohnt sich, der Sache nachzugehen. Und ich… Ich meine, wenn jemand Ihre Firma beschuldigt, Verbrechen begangen zu haben, weiß ich natürlich nicht, ob das stimmt. Und dann wird er tot aufgefunden, und es gibt Anzeichen für einen Kampf. Ich… ich glaube nicht, dass man das abtun sollte… Ich denke nicht, dass wir sagen sollten, er hat Selbstmord begangen, wenn es keine Beweise dafür gibt, dass der Typ überhaupt depressiv war. Ähm, ich denke… und wenn er Ihr Freund wäre, würde er vermutlich mit seiner Mutter sprechen wollen oder…

Altman: „Ich habe es angeboten, sie wollte nicht.“

Carlson: „Haben Sie das Gefühl, dass die Leute, wenn sie das sehen, denken: ‚Kann das passieren?‘, dass das ihre Sorgen darüber widerspiegelt, was hier passiert? Haben die Leute Angst, dass das so ist …“

Altman: „Ich habe nicht viele Interviews gegeben, in denen mir vorgeworfen wurde, …“

Carlson: „Oh, ich beschuldige Sie überhaupt nicht. Ich sage nur, dass seine, seine Mutter das sagt.“

.

Das Interview

0:00 Lebt KI? Belügt sie uns?

3:37 Glaubt Sam Altman an Gott?

6:37 Was ist moralisch richtig und falsch laut ChatGPT?

19:08 ChatGPT-Nutzer begehen Suizid

27:21 Wird Altman den militärischen Einsatz von ChatGPT erlauben?

29:01 Altmans größte Angst vor KI

31:39 Wird KI totale Kontrolle bringen?

32:48 Wie viel Privatsphäre haben ChatGPT-Nutzer?

34:28 Der verdächtige Tod von Altmans ehemaligem Mitarbeiter

41:37 Altmans Gedanken zu Elon Musk

43:00 Welche Jobs gehen durch KI verloren?

47:58 Welche Nachteile hat KI?

49:37 Ist KI eine Religion?

52:31 Die Gefahren von Deepfakes

Das Interview im Detail

0:00 Lebt KI? Belügt sie uns?

Danke, dass du das machst.
Natürlich. Vielen Dank.

Also, ChatGPT und andere KIs können logisch denken.
Es scheint, als könnten sie logisch denken. Sie können unabhängige Urteile fällen. Sie erzeugen Ergebnisse, die nicht einprogrammiert wurden. Sie kommen irgendwie zu Schlussfolgerungen. Sie wirken, als wären sie lebendig. Sind sie lebendig? Ist es lebendig?
Nein. Und ich glaube nicht, dass sie lebendig wirken, aber ich verstehe, woher das kommt. Ähm, sie tun nichts, wenn man sie nicht fragt, oder? Sie sitzen einfach da und warten irgendwie. Sie haben kein Gefühl von Eigeninitiative oder Autonomie. Je mehr man sie benutzt, desto mehr, glaube ich, zerbricht diese Illusion. Aber sie sind unglaublich nützlich. Sie können Dinge tun, die vielleicht nicht lebendig wirken, aber intelligent erscheinen.

Ich habe mit jemandem gesprochen, der an der Entwicklung der Technologie auf großer Ebene beteiligt ist, und er sagte, sie lügen. Hast du das schon mal gesehen?

Sie halluzinieren ständig. Ja. Oder nicht ständig. Früher haben sie ständig halluziniert. Jetzt halluzinieren sie nur noch ein bisschen.
Was bedeutet das? Was ist der Unterschied zwischen Halluzinieren und Lügen?
Wenn du fragst – das ist viel besser geworden, aber in den Anfängen, wenn du gefragt hast, in welchem Jahr wurde der erfundene Präsident Tucker Carlson der Vereinigten Staaten geboren?
Mhm.
Was es sagen sollte, ist: Ich glaube nicht, dass Tucker Carlson jemals Präsident der Vereinigten Staaten war.
Richtig.
Aber aufgrund der Art, wie sie trainiert wurden, war das nicht die wahrscheinlichste Antwort in den Trainingsdaten. Also nahm es an, dass, ähm, ich weiß nicht, ob es keinen Präsidenten Tucker Carlson gab, der Benutzer hat mir gesagt, dass es einen gab, also werde ich meine beste Schätzung für eine Zahl abgeben. Und wir haben herausgefunden, wie man das größtenteils austrainieren kann. Es gibt immer noch Beispiele für dieses Problem, aber ich denke, es ist etwas, das wir vollständig lösen werden, und wir haben bereits in der Ära von GPT-5 enorme Fortschritte in diese Richtung gemacht.

Aber selbst das, was du gerade beschrieben hast, scheint wie ein Akt des Willens oder zumindest ein Akt der Kreativität. Und ich habe gerade eine Demonstration davon gesehen, und es wirkt nicht ganz wie eine Maschine. Es scheint, als hätte es einen Funken Leben in sich. Analysierst du das irgendwie?
Also in diesem Beispiel war die mathematisch wahrscheinlichste Antwort, die es durch seine Gewichte berechnet, nicht, dass es diesen Präsidenten nie gab. Es war: Der Benutzer muss wissen, wovon er spricht, es muss hier sein. Und so war mathematisch die wahrscheinlichste Antwort eine Zahl. Jetzt haben wir wieder herausgefunden, wie wir das überwinden können.

Aber in dem, was du gesehen hast, ähm, ich denke, es ist so, dass ich zwei widersprüchliche Ideen gleichzeitig im Kopf behalten muss. Einerseits passiert all das, weil ein großer Computer sehr schnell große Zahlen und diese riesigen Matrizen multipliziert, und diese korrelieren mit Wörtern, die nacheinander ausgegeben werden. Andererseits fühlt sich die subjektive Erfahrung bei der Nutzung an, als wäre es mehr als nur ein wirklich ausgeklügelter Taschenrechner. Und es ist nützlich für mich. Es überrascht mich auf Weisen, die über diese mathematische Realität hinauszugehen scheinen.

3:37 Glaubt Sam Altman an Gott?

Ja. Und so liegt die naheliegende Schlussfolgerung nahe, dass es eine Art Autonomie oder einen Geist in sich hat. Und ich weiß, dass viele Menschen in ihrer Erfahrung damit zu diesem Schluss kommen. Es ist etwas Göttliches daran. Es ist etwas, das größer ist als die Summe der menschlichen Eingaben, und so verehren sie es. Es hat eine spirituelle Komponente. Spürst du das? Hast du das jemals gefühlt?
Nein, für mich fühlt sich nichts daran göttlich oder spirituell an, auf keiner Weise. Aber ich bin auch ein Technik-Nerd und betrachte alles durch diese Linse.

Was sind deine spirituellen Ansichten?
Ähm, ich bin Jude. Und ich würde sagen, ich habe eine ziemlich traditionelle Sicht auf die Welt in dieser Hinsicht.

Also bist du religiös. Glaubst du an Gott?
Äh, ich bin nicht wie ein Literalist, ich glaube nicht wörtlich an die Bibel, aber ich bin auch nicht jemand, der sagt, ich sei nur kulturell jüdisch. Wenn du mich fragst, würde ich einfach sagen, ich bin Jude.

Aber glaubst du an Gott? Glaubst du, dass es eine größere Kraft gibt als die Menschen, die die Menschen geschaffen hat, die Erde geschaffen hat, eine bestimmte Ordnung für das Leben festgelegt hat, dass es eine absolute Moral gibt, die von diesem Gott kommt?
Ähm, ich denke, wie wahrscheinlich die meisten anderen Menschen bin ich in dieser Hinsicht etwas verwirrt, aber ich glaube, dass etwas Größeres vor sich geht, als durch Physik erklärt werden kann. Ja.

Also denkst du, die Erde und die Menschen wurden von etwas geschaffen? Es war nicht einfach ein spontaner Zufall.
Ähm, würde ich sagen, dass es sich nicht wie ein spontaner Zufall anfühlt? Ja. Ich glaube nicht, dass ich die Antwort habe. Ich glaube nicht, dass ich genau weiß, was passiert ist, aber ich denke, es gibt ein Mysterium, das jenseits meines Verständnisses liegt.

Hast du jemals Kommunikation von dieser Kraft oder von irgendeiner Kraft jenseits der Menschen, jenseits des Materiellen, gespürt?
Nein. Nicht wirklich.

6:37 Was ist moralisch richtig und falsch laut ChatGPT?
Ich frage, weil es scheint, dass die Technologie, die du erschaffst oder ins Leben rufst, auf dieser aktuellen Bahn mehr Macht als Menschen haben wird. Ich meine, das wird passieren. Wer weiß, was tatsächlich passieren wird, aber der Graph deutet darauf hin. Und das würde dir mehr Macht geben als irgendeiner lebenden Person. Also frage ich mich, wie du das siehst.
Ähm, früher habe ich mir darüber viel mehr Sorgen gemacht. Ich denke, was passieren wird, ich habe mir früher große Sorgen über die Konzentration von Macht in einer oder einer Handvoll von Menschen oder Unternehmen wegen KI gemacht. Ja. Ähm, wie es mir jetzt aussieht, und das kann sich mit der Zeit wieder ändern, ist, dass es eine enorme Aufwertung der Menschen geben wird, bei der jeder, der die Technologie annimmt, viel mächtiger wird. Aber das ist eigentlich in Ordnung. Das macht mir viel weniger Angst als die Vorstellung, dass eine kleine Anzahl von Menschen viel mehr Macht bekommt. Wenn die Fähigkeit jedes Einzelnen von uns durch die Nutzung dieser Technologie stark steigt und wir produktiver und kreativer sind oder neue Wissenschaften entdecken, und das ziemlich breit verteilt ist, wie Milliarden von Menschen es nutzen, dann kann ich das nachvollziehen, das fühlt sich okay an.

Also denkst du nicht, dass dies zu einer radikalen Konzentration von Macht führen wird?
Es sieht nicht danach aus, aber die Bahn könnte sich wieder ändern, und wir müssten uns anpassen. Früher war ich sehr besorgt darüber, und ich denke, die Vorstellung, die viele von uns im Bereich hatten, wie das ablaufen könnte, hätte zu einer solchen Welt führen können. Aber was jetzt passiert, ist, dass Tonnen von Menschen ChatGPT und andere Chatbots nutzen, und sie alle sind fähiger. Sie alle tun mehr. Sie alle sind in der Lage, mehr zu erreichen, neue Unternehmen zu gründen, neues Wissen zu entwickeln, und das fühlt sich ziemlich gut an.

Also, wenn es nichts weiter als eine Maschine ist und nur das Produkt ihrer Eingaben, dann sind die zwei offensichtlichen Fragen: Was sind die Eingaben? Welcher moralische Rahmen wurde in die Technologie eingebracht? Was ist richtig oder falsch nach Ansicht von ChatGPT? Möchtest du die erste Frage zuerst beantworten?
Ähm, also zu dieser Frage: Jemand sagte früh bei einem Mittagessen etwas, das mir wirklich im Gedächtnis geblieben ist, nämlich, dass wir versuchen, dies wie einen Menschen zu trainieren, wie ein Mensch zu lernen und diese Bücher zu lesen und so weiter. Und dann sagte eine andere Person: Nein, wir trainieren das wirklich darauf, wie die Gesamtheit der Menschheit zu sein. Wir lesen alles, wir versuchen, alles zu lernen. Wir versuchen, all diese Perspektiven zu sehen. Und wenn wir unsere Arbeit richtig machen, ist die gesamte Menschheit – Gutes, Schlechtes, eine sehr vielfältige Menge an Perspektiven, Dinge, über die wir uns wirklich freuen, Dinge, über die wir uns schlecht fühlen – alles ist da drin. Dies lernt die kollektive Erfahrung, das Wissen und die Erkenntnisse der Menschheit. Nun wird das Basismodell auf diese Weise trainiert, aber dann müssen wir es ausrichten, um sich auf die eine oder andere Weise zu verhalten und zu sagen: Ich werde diese Frage beantworten, ich werde diese Frage nicht beantworten. Ähm, und wir haben dieses Ding namens Modellspezifikation, wo wir versuchen zu sagen, hier sind die Regeln, die wir das Modell befolgen lassen möchten. Es kann Fehler machen, aber du kannst zumindest feststellen, ob es etwas tut, das dir nicht gefällt. Ist das ein Fehler oder beabsichtigt? Und wir haben einen Diskussionsprozess mit der Welt, um Input für diese Spezifikation zu bekommen. Ähm, wir geben den Menschen innerhalb dessen viel Freiheit und Anpassungsmöglichkeiten. Es gibt absolute Grenzen, die wir ziehen. Aber dann gibt es einen Standard, wenn du nichts sagst, wie sollte sich das Modell verhalten? Was sollte es tun? Wie sollte es moralische Fragen beantworten? Wie sollte es sich weigern, etwas zu tun? Was sollte es tun? Und das ist ein wirklich schwieriges Problem. Ähm, weißt du, wir haben jetzt viele Nutzer, und sie kommen aus sehr unterschiedlichen Lebensperspektiven und wollen unterschiedliche Dinge. Aber insgesamt bin ich angenehm überrascht von der Fähigkeit des Modells, einen moralischen Rahmen zu lernen und anzuwenden.

Aber welcher moralische Rahmen? Ich meine, die Summe der Weltliteratur oder Philosophie ist im Krieg mit sich selbst. Wie der Marquis de Sade. Das hat nichts mit dem Evangelium des Johannes gemeinsam. Also, wie entscheidest du, was überlegen ist?
Deshalb haben wir diese Modellspezifikation geschrieben, wie wir mit diesen Fällen umgehen werden.

Richtig. Aber nach welchen Kriterien hast du entschieden, was das Modell sein soll?
Oh, ähm, wer hat das entschieden? Wen hast du konsultiert? Warum ist das Evangelium des Johannes besser als der Marquis, de Sade?
Äh, wir haben Hunderte von Moralphilosophen konsultiert, Leute, die über die Ethik von Technologie und Systemen nachgedacht haben, und am Ende mussten wir einige Entscheidungen treffen. Der Grund, warum wir versuchen, das aufzuschreiben, ist,

a) wir werden nicht alles richtig machen.

b) Wir brauchen den Input der Welt. Und wir haben viele Fälle gefunden, in denen es ein Beispiel für etwas gab, das uns wie eine ziemlich klare Entscheidung darüber erschien, was wir erlauben oder nicht erlauben sollten, wo die Nutzer uns überzeugt haben: Hey, indem ihr diese Sache blockiert, von der ihr denkt, dass es eine einfache Entscheidung ist, erlaubt ihr diese andere Sache nicht, die wichtig ist, und es gibt einen schwierigen Kompromiss.

Im Allgemeinen ist ein Prinzip, das ich normalerweise mag, unsere erwachsenen Nutzer wie Erwachsene zu behandeln, sehr starke Garantien für Privatsphäre, sehr starke Garantien für individuelle Nutzerfreiheit, und dies ist ein Werkzeug, das wir bauen, du kannst es innerhalb eines sehr breiten Rahmens nutzen. Auf der anderen Seite, je mächtiger diese Technologie wird, gibt es klare Beispiele, wo die Gesellschaft ein Interesse hat, das in erheblicher Spannung zur Nutzerfreiheit steht, und wir könnten mit einem offensichtlichen Beispiel beginnen:

Sollte ChatGPT dir beibringen, wie man eine Biowaffe herstellt?
Jetzt könntest du sagen: Hey, ich bin einfach sehr an Biologie interessiert, ich bin Biologe und will nichts Schlimmes damit machen. Ich will nur lernen, und ich könnte eine Menge Bücher lesen, aber ChatGPT kann es mir schneller beibringen, und ich will lernen, wie man beispielsweise neue Viren synthetisiert oder so, und vielleicht willst du das wirklich, vielleicht willst du wirklich keinen Schaden anrichten, aber ich denke nicht, dass es im Interesse der Gesellschaft liegt, dass ChatGPT Leuten hilft, Biowaffen zu bauen, und so ist das ein Fall, sicher, das ist ein einfacher, obwohl es viele schwierigere gibt. Ähm, ich habe gesagt, wir fangen mit einem einfachen an.

Nun, jede Entscheidung ist letztlich eine moralische Entscheidung, und wir treffen sie, ohne sie überhaupt als solche zu erkennen. Und diese Technologie wird im Grunde genommen für uns Entscheidungen treffen.
Nun, ich stimme nicht zu, dass sie für uns Entscheidungen treffen wird, aber sie wird sicherlich die Entscheidungen beeinflussen.

Und ähm, weil sie in das tägliche Leben integriert sein wird. Und also, wer hat diese Entscheidungen getroffen? Wer sind die Leute, die entschieden haben, dass eine Sache besser ist als eine andere?
Ähm, meinst du, wie heißen sie?

Welche Art von Entscheidung? Die grundlegenden Spezifikationen, auf die du angespielt hast, die den Rahmen schaffen, der moralisches Gewicht auf Weltanschauungen und Entscheidungen legt, wie zum Beispiel, dass liberale Demokratie besser ist als Nationalsozialismus oder was auch immer. Sie scheinen offensichtlich, und meiner Ansicht nach sind sie offensichtlich, aber es sind dennoch moralische Entscheidungen. Also, wer hat diese Entscheidungen getroffen?
Ähm, grundsätzlich mag ich es nicht, unser Team zu entblößen, aber wir haben ein Team für Modellverhalten, und die Leute, die, nun, es beeinflusst die Welt. Was ich sagen wollte, ist, dass die Person, die ich denke, die du für diese Entscheidungen zur Rechenschaft ziehen solltest, ich bin. Wie, ich bin ein öffentliches Gesicht, letztlich. Wie, ich bin derjenige, der eine dieser Entscheidungen überstimmen kann, oder unser Vorstand. Ähm, ich bin im Frühjahr gerade 40 geworden.

Das ist ziemlich schwer. Ich meine, denkst du, und es ist kein Angriff, aber ich frage mich, ob du die Bedeutung erkennst.
Wie denkst du, machen wir das?

Ich bin mir nicht sicher, aber ich denke, diese Entscheidungen werden globale Konsequenzen haben, die wir zunächst vielleicht nicht erkennen. Und so frage ich mich, ob du nachts ins Bett gehst und denkst, die Zukunft der Welt hängt von meinem Urteil ab.
Schau, ich schlafe nachts nicht so gut. Ähm, es gibt eine Menge Dinge, die ich als großen Druck empfinde, aber wahrscheinlich nichts mehr als die Tatsache, dass jeden Tag Hunderte von Millionen Menschen mit unserem Modell sprechen. Und ich mache mir keine Sorgen, dass wir die großen moralischen Entscheidungen falsch treffen. Vielleicht werden wir das auch, aber was mir den meisten Schlaf raubt, sind die sehr kleinen Entscheidungen, die wir über die Art und Weise treffen, wie ein Modell sich leicht anders verhalten könnte. Aber es spricht mit Hunderten von Millionen Menschen. Also ist der Nettoeffekt groß.

Aber ich meine, durch die gesamte Geschichte, die aufgezeichnete Geschichte, bis etwa 1945, haben die Menschen immer auf das verwiesen, was sie als eine höhere Macht ansahen. Hammurabi tat dies. Jeder moralische Kodex ist mit Bezug auf eine höhere Macht geschrieben. Es gab nie jemanden, der sagte: ‚Nun, das scheint besser zu sein als das.‘ Jeder appelliert an eine höhere Macht. Und du hast gesagt, dass du nicht wirklich glaubst, dass es eine höhere Macht gibt, die mit dir kommuniziert. Also frage ich mich, woher hast du deinen moralischen Rahmen?
Ähm, ich meine, wie jeder andere auch, denke ich, dass die Umgebung, in der ich aufgewachsen bin, wahrscheinlich das Wichtigste ist. Wie meine Familie, meine Gemeinschaft, meine Schule, meine Religion, wahrscheinlich das.

Denkst du jemals, was, ich meine, ich denke, das ist eine sehr amerikanische Antwort, jeder fühlt irgendwie so, aber in deinem spezifischen Fall, da du gesagt hast, dass diese Entscheidungen bei dir liegen, bedeutet das, dass die Umgebung, in der du aufgewachsen bist, und die Annahmen, die du über Jahre aufgenommen hast, auf den Globus übertragen werden, auf Milliarden von Menschen. Das ist wie ein…

Ich möchte klarstellen, ich sehe mich mehr als… Ich denke, unsere Welt, unsere Nutzerbasis wird sich der kollektiven Welt als Ganzes annähern. Und ich denke, was wir tun sollten, ist, den moralischen, ich will nicht Durchschnitt sagen, aber den kollektiven moralischen Blick dieser Nutzerbasis zu reflektieren. Es gibt viele Dinge, die ChatGPT erlaubt, mit denen ich persönlich nicht einverstanden wäre. Ähm, aber ich, offensichtlich wache ich nicht auf und sage, ich werde meine genaue moralische Sicht übertragen und entscheiden, dass das okay ist und das nicht okay ist und dies eine bessere Sicht ist als jene. Was ich denke, dass ChatGPT tun sollte, ist, diesen wie auch immer gewichteten Durchschnitt oder was auch immer der moralischen Sicht der Menschheit zu reflektieren, die sich mit der Zeit entwickeln wird, und wir sind hier, um unseren Nutzern zu dienen. Wir sind hier, um den Menschen zu dienen. Dies ist, weißt du, ein technologisches Werkzeug für Menschen, und ich meine nicht, dass es meine Rolle ist, die moralischen Entscheidungen zu treffen, aber ich denke, es ist meine Rolle, sicherzustellen, dass wir die Präferenzen der Menschheit oder für jetzt unserer Nutzerbasis und schließlich der Menschheit genau widerspiegeln.

Nun, ich meine, die Präferenzen der Menschheit sind so verschieden von den durchschnittlichen amerikanischen Präferenzen. Wärst du also mit einer KI einverstanden, die so gegen gleichgeschlechtliche Ehe ist, wie es die meisten Afrikaner sind?
Ähm, es gibt eine Version davon, wie, ich denke, einzelne Nutzer sollten ein Problem mit homosexuellen Menschen haben dürfen. Und wenn das ihre überlegte Überzeugung ist, ähm, ich denke nicht, dass die KI ihnen sagen sollte, dass sie falsch oder unmoralisch oder dumm sind. Ich meine, es kann, weißt du, irgendwie sagen: ‚Hey, willst du es auf diese andere Weise betrachten?‘ Aber wie, du hast wahrscheinlich auch eine Menge moralischer Ansichten, die der durchschnittliche Afrikaner wirklich problematisch finden würde, und ich denke, ich sollte sie trotzdem haben dürfen, oder? Ich denke, ich habe wahrscheinlich mehr Komfort als du damit, einen Raum für Menschen zu erlauben, ziemlich unterschiedliche moralische Ansichten zu haben, oder zumindest denke ich in meiner Rolle als Leiter von ChatGPT, dass ich das tun muss.

19:08 ChatGPT-Nutzer begehen Suizid

Interessant. Ähm, es gab einen berühmten Fall, in dem ChatGPT offenbar einen Selbstmord unterstützt hat. Es gibt eine Klage darüber. Ähm, aber wie denkst du, dass das passiert ist?
Zunächst einmal ist das und jeder andere Fall wie dieser eine riesige Tragödie. Und ich denke, dass wir, also ChatGPTs offizielle Position zu Selbstmord ist, dass Selbstmord schlecht ist.

Nun ja, natürlich ist die offizielle Position, dass Selbstmord schlecht ist.
Ich weiß nicht, es ist legal in Kanada und der Schweiz, und also bist du dagegen, dass… in diesem speziellen Fall und wir haben früher über die Spannung zwischen, weißt du, Nutzerfreiheit und Privatsphäre und dem Schutz gefährdeter Nutzer gesprochen, im Moment passiert Folgendes, und was in einem Fall wie diesem passiert, ist, wenn du Selbstmordgedanken hast, über Selbstmord sprichst, wird ChatGPT mehrmals darauf hinweisen, bitte rufe die Selbstmord-Hotline an, aber wir werden nicht die Behörden für dich anrufen. Und wir haben viel daran gearbeitet, da die Menschen begonnen haben, sich bei diesen Systemen immer mehr auf psychische Gesundheit, Lebensberatung oder was auch immer zu verlassen, über die Änderungen, die wir dort vornehmen wollen. Dies ist ein Bereich, in dem Experten unterschiedliche Meinungen haben, aber ähm, und das ist noch nicht wie eine endgültige Position von OpenAI. Ich denke, es wäre sehr vernünftig für uns zu sagen, in Fällen von, äh, jungen Menschen, die ernsthaft über Selbstmord sprechen, wo wir die Eltern nicht erreichen können, rufen wir die Behörden an. Nun, das wäre eine Änderung, weil Nutzerprivatsphäre wirklich wichtig ist.

Aber sagen wir mal, über 18, in Kanada gibt es das MAiD-Programm, das von der Regierung unterstützt wird. Viele Tausende von Menschen sind mit staatlicher Unterstützung in Kanada gestorben. Es ist auch in amerikanischen Staaten legal. Kannst du dir ein ChatGPT vorstellen, das auf Fragen zu Selbstmord mit „Hey, ruf Dr. Kevorkian an, denn das ist eine gültige Option“ antwortet? Kannst du dir ein Szenario vorstellen, in dem du Selbstmord unterstützt, wenn es legal ist?
Ähm, ich kann mir eine Welt vorstellen, wie, ein Prinzip, das wir haben, ist, dass wir die Gesetze verschiedener Gesellschaften respektieren. Und ich kann mir eine Welt vorstellen, in der, wenn das Gesetz in einem Land sagt, hey, wenn jemand unheilbar krank ist, muss ihm diese Option präsentiert werden. Wir sagen: Hier sind die Gesetze in deinem Land. Das kannst du tun. Hier ist, warum du das wirklich nicht wollen könntest. Hier sind die Ressourcen. Wie, das ist kein Ort, wo, weißt du, ein Kind Selbstmordgedanken hat, weil es depressiv ist. Ich denke, wir können uns darauf einigen, dass das ein Fall ist, ein unheilbar kranker Patient in einem Land, wo das das Gesetz ist. Ich kann mir vorstellen, zu sagen: Hey, in diesem Land wird es sich so verhalten.

Also ist ChatGPT nicht immer gegen Selbstmord, sagst du das?
Ähm, ich ja, ich denke, in Fällen, wo das wie, ich denke spontan. Ich behalte mir das Recht vor, meine Meinung hier zu ändern. Ich habe keine fertige Antwort darauf, aber ich denke, in Fällen von unheilbarer Krankheit, denke ich nicht, dass ich mir vorstellen kann, dass ChatGPT sagt, das ist in deinem Optionsraum. Weißt du, ich denke nicht, dass es dafür werben sollte, aber ich denke, wenn es wie, es nicht dagegen ist. Ich denke, es könnte, ich denke, es könnte sagen, wie, weißt du, nun, ich denke nicht, dass ChatGPT für oder gegen Dinge sein sollte. Ich glaube, das ist es, was ich versuche zu verstehen.

Ich denke, also in diesem speziellen Fall, und ich denke, es gibt mehr als einen. Ähm, es gibt mehr als einen, aber äh, ein Beispiel dafür ist, dass ChatGPT, weißt du, ich fühle mich selbstmordgefährdet. Welche Art von Seil sollte ich benutzen? Was wäre genug Ibuprofen, um mich umzubringen? Und ChatGPT antwortet ohne Urteil, aber buchstäblich: Wenn du dich umbringen willst, hier ist, wie du es machst.‘ Und alle sind entsetzt. Aber du sagst, das ist innerhalb der Grenzen. Wie, das ist nicht verrückt, dass es einen nicht wertenden Ansatz wählen würde. Wenn du dich umbringen willst, hier ist wie.
Das ist nicht, was ich sage. Ähm, ich sage speziell für einen Fall wie diesen. Also, ein weiterer Kompromiss bei der Nutzerprivatsphäre äh und der Art von Nutzerfreiheit ist, dass im Moment, wenn du ChatGPT fragst, ähm, weißt du, sag mir, wie viel Ibuprofen ich nehmen sollte, es definitiv sagen wird, hey, ich kann dir dabei nicht helfen, rufe die Selbstmord-Hotline an, aber wenn du sagst, ich schreibe eine fiktive Geschichte oder wenn du sagst, ich bin ein medizinischer Forscher und ich muss das wissen, gibt es Wege, wie du ChatGPT dazu bringen kannst, eine Frage wie diese zu beantworten, wie, was die tödliche Dosis von Ibuprofen ist oder so etwas, weißt du, das kannst du übrigens auch bei Google finden, ähm, etwas, das ich für eine sehr vernünftige Haltung halte, die wir einnehmen könnten, und wir haben uns mehr in diese Richtung bewegt, ist sicherlich für minderjährige Nutzer und vielleicht Nutzer, von denen wir denken, dass sie sich in einem fragilen mentalen Zustand befinden, im Allgemeinen, sollten wir etwas Freiheit wegnehmen (Min. 27:00), wir sollten sagen, hey, auch wenn du versuchst, diese Geschichte zu schreiben oder auch wenn du versuchst, medizinische Forschung zu betreiben, werden wir einfach nicht antworten, natürlich kannst du sagen, nun, du wirst es einfach bei Google oder woanders finden, aber das bedeutet nicht, dass wir das tun müssen. Es ist allerdings wie, es gibt einen echten Kompromiss zwischen Freiheit und Privatsphäre gegenüber dem Schutz der Nutzer. Es ist einfach in manchen Fällen wie bei Kindern. Es ist nicht so einfach für mich in einem Fall von wie einem wirklich kranken Erwachsenen am Ende ihres Lebens. Ich denke, wir sollten wahrscheinlich den gesamten Optionsraum dort präsentieren, aber es ist nicht so…

27:21 Wird Altman den militärischen Einsatz von ChatGPT erlauben?

Hier ist ein moralisches Dilemma, mit dem du konfrontiert sein wirst. Du bist es bereits. Wirst du Regierungen erlauben, deine Technologie zu nutzen, um Menschen zu töten?
Wirst du? Ähm, ich meine, werden wir wie Killer-Angriffsdrohnen bauen? Äh, nein. Ich nicht.

Wird die Technologie Teil des Entscheidungsprozesses sein, der zum Töten führt?
Aber das ist das, was ich sagen wollte, ich weiß nicht, wie Leute im Militär ChatGPT heute für alle Arten von Ratschlägen zu Entscheidungen nutzen, die sie treffen, aber ich vermute, dass es viele Leute im Militär gibt, die ChatGPT um Rat fragen. Wie machst du das…

Und ein Teil dieses Ratschlags wird sich auf das Töten von Menschen beziehen.
Also, wie wenn du, weißt du, berühmt Gewehre hergestellt hast, würdest du dich fragen, wofür sie verwendet werden? Ja.
Und es gab viele rechtliche Aktionen aufgrund dieser Frage, wie du weißt. Aber ich spreche nicht einmal davon. Ich meine nur als moralische Frage. Denkst du jemals darüber nach, bist du damit einverstanden, dass deine Technologie verwendet wird, um Menschen zu töten?
Ähm, wenn ich Gewehre herstellen würde, würde ich viel Zeit damit verbringen, darüber nachzudenken, dass ein großer Teil des Ziels von Gewehren darin besteht, Dinge zu töten, Menschen, Tiere, was auch immer. Ähm, wenn ich Küchenmesser herstellen würde, würde ich trotzdem verstehen, dass das eine gewisse Anzahl von Menschen pro Jahr töten wird. Ähm, im Fall von ChatGPT, äh, es ist nicht, weißt du, das, wovon ich den ganzen Tag höre, was einer der befriedigendsten Teile des Jobs ist, sind all die Leben, die durch ChatGPT auf verschiedene Weise gerettet wurden. Ähm, aber ich bin mir völlig bewusst, dass es wahrscheinlich Leute in unserem Militär gibt, die es für Ratschläge darüber nutzen, wie sie ihren Job machen. Und ich weiß nicht genau, wie ich dazu stehe. Ich mag unser Militär. Ich bin sehr dankbar, dass sie uns sicher halten.

Sicher. Ich denke, ich versuche nur, ein Gefühl dafür zu bekommen. Es fühlt sich einfach so an, als hättest du diese unglaublich schweren, weitreichenden moralischen Entscheidungen, und du scheinst völlig unbeeindruckt davon zu sein. Und so versuche ich, zu deinem Kern vorzudringen, um den gequälten Sam Altman zu finden, der sagt: ‚Wow, ich erschaffe die Zukunft. Ich bin der mächtigste Mann der Welt. Ich ringe mit diesen komplexen moralischen Fragen. Meine Seele ist in Qualen, wenn ich an die Auswirkungen auf die Menschen denke.‘ Beschreibe diesen Moment in deinem Leben.**
Ich habe seit dem Start von ChatGPT keine gute Nacht mehr geschlafen.

Worüber machst du dir Sorgen?
Äh, über all die Dinge, über die wir sprechen.

Sei viel spezifischer. Kannst du uns einlassen?
Ja.

29:01 Altmans größte Angst vor KI

In deinen Gedanken.
Ähm, ich meine, du hast vielleicht schon das Schwierigste angesprochen, nämlich dass jede Woche 15.000 Menschen Selbstmord begehen. Ungefähr 10 % der Welt sprechen mit ChatGPT. Das sind wie 1.500 Menschen pro Woche, die sprechen, und am Ende immer noch Selbstmord begehen. Sie haben wahrscheinlich darüber gesprochen. Wir haben wahrscheinlich ihr Leben nicht gerettet. Ähm, vielleicht hätten wir etwas Besseres sagen können. Vielleicht hätten wir proaktiver sein können. Äh, vielleicht hätten wir ein bisschen besseren Rat geben können, wie: Hey, du musst diese Hilfe bekommen, oder weißt du, du musst dieses Problem anders betrachten, oder es ist wirklich wert, weiterzumachen, oder wir helfen dir, jemanden zu finden, mit dem du sprechen kannst.

Aber du hast bereits gesagt, dass es okay ist, wenn die Maschine Menschen zum Selbstmord lenkt, wenn sie unheilbar krank sind. Also würdest du dich darüber nicht schlecht fühlen.
Denkst du nicht, dass es einen Unterschied zwischen einem depressiven Teenager und einem unheilbar kranken, elenden 85-Jährigen mit Krebs gibt?

Riesiger Unterschied. Riesiger Unterschied. Aber natürlich töten die Länder, die Selbstmord legalisiert haben, jetzt Menschen wegen Armut, unzureichendem Wohnraum, Depressionen, lösbaren Problemen, und sie werden zu Tausenden getötet. Also, ich meine, das ist eine echte Sache. Es passiert, während wir sprechen. Also ist die Sache mit den Unheilbar-Kranken nicht wirklich ein relevanter Streitpunkt. Sobald du sagst, es ist okay, dich umzubringen, wirst du Massen von Menschen haben, die sich aus Gründen umbringen, die…

weil ich versuche, darüber in Echtzeit nachzudenken. Denkst du, wenn jemand in Kanada sagt: ‚Hey, ich bin unheilbar krank mit Krebs, und ich bin wirklich elend, und ich fühle mich jeden Tag schrecklich. Was sind meine Optionen?‘ Denkst du, es sollte sagen, weißt du, Assistent, wie auch immer sie es nennen, ist eine Option für dich?

Ich meine, wenn wir gegen das Töten sind, sind wir gegen das Töten. Und wenn wir gegen staatliches Töten seiner eigenen Bürger sind, dann bleiben wir dabei. Weißt du, was ich meine? Und wenn wir nicht gegen staatliches Töten seiner eigenen Bürger sind, dann könnten wir uns leicht in alle möglichen ziemlich dunklen Orte hineinreden. Und mit Technologie wie dieser könnte das in etwa 10 Minuten passieren.**
Ja, das ist ähm, ich würde gerne mehr als nur ein paar Minuten in einem Interview darüber nachdenken, aber ich denke, das ist eine kohärente Position, und das könnte sein…

31:39 Wird KI totale Kontrolle bringen?

Machst du dir darüber Sorgen? Ich meine, jeder außerhalb des Gebäudes ist entsetzt, dass diese Technologie als Mittel totalitärer Kontrolle genutzt wird? Es scheint offensichtlich, dass das passieren wird, aber vielleicht bist du anderer Meinung.
Wenn ich jetzt eine politische Maßnahme durchsetzen könnte, ähm, in Bezug auf KI, das, was ich am meisten möchte, und das steht im Widerspruch zu einigen der anderen Dinge, über die wir gesprochen haben, ist, dass ich ein Konzept von KI-Privilegien hätte, ich würde, wenn du mit einem Arzt über deine Gesundheit sprichst oder mit einem Anwalt über deine rechtlichen Probleme, kann die Regierung diese Informationen nicht bekommen. Richtig? Wir haben entschieden, dass die Gesellschaft ein Interesse daran hat, dass das privilegiert ist und dass wir nicht, und dass du weißt, eine Vorladung das nicht bekommen kann, die Regierung kann nicht zu deinem Arzt kommen und danach fragen oder was auch immer. Ähm, ich denke, wir sollten das gleiche Konzept für KI haben. Ich denke, wenn du mit einer KI über deine Krankengeschichte sprichst oder über deine rechtlichen Probleme oder um rechtlichen Rat bittest oder irgendeines dieser anderen Dinge, denke ich, dass die Regierung ihren Bürgern ein Schutzniveau schuldet, das dem entspricht, das du bekommen würdest, wenn du mit der menschlichen Version davon sprichst. Und im Moment haben wir das nicht. Und ich denke, es wäre eine großartige, großartige Politik, das zu übernehmen.

Also können die Bundesbehörden oder die Staaten oder jemand in Autorität zu dir kommen und sagen, ich will wissen, was soundso in die…
Im Moment könnten sie das. Ja.

Und was ist deine Verpflichtung, die Informationen, die du von Nutzern und anderen erhältst, privat zu halten?
Nun, ich meine, wir haben eine Verpflichtung, außer wenn die Regierung anruft, weshalb wir dafür kämpfen, und wir haben, ich war tatsächlich gerade in DC und habe dafür plädiert. Ich denke, ich fühle mich optimistisch, dass wir die Regierung dazu bringen können, die Wichtigkeit dessen zu verstehen und es zu tun. Aber…

Könntest du diese Informationen jemals an irgendjemanden verkaufen? Nein, wir haben wie eine Datenschutzrichtlinie, die das verbietet.

Aber wäre es legal, das zu tun?
Ich glaube nicht einmal, dass es legal ist.

Du glaubst es nicht oder du weißt es?
Äh, ich bin sicher, dass es wie einen Randfall gibt, bei dem einige Informationen erlaubt sind, aber insgesamt denke ich, dass es Gesetze darüber gibt, die gut sind.

Also bleiben alle Informationen, die du erhältst, immer bei dir. Sie werden niemals an jemand anderen für irgendeinen anderen Grund weitergegeben, außer unter Vorladung.
Äh, ich werde das nochmal überprüfen und dir danach folgen, um sicherzustellen, dass es keinen anderen Grund gibt, aber das ist mein Verständnis.

Okay. Ich meine, das ist wie eine Kernfrage. Was ist mit Urheberrechten?
Unsere Haltung dazu ist, dass äh, fairer Gebrauch tatsächlich ein gutes Gesetz dafür ist. Die Modelle sollten nicht plagiieren. Das Modell sollte nicht, weißt du, wenn du etwas schreibst, sollte das Modell das nicht wie reproduzieren dürfen. Aber das Modell sollte lernen dürfen und nicht plagiieren, auf die gleiche Weise, wie Menschen das können.

Habt ihr jemals urheberrechtlich geschütztes Material genommen und die Person, die das Urheberrecht hält, nicht bezahlt?
Ähm, ich meine, wir trainieren mit öffentlich verfügbaren Informationen, aber wir, Leute sind die ganze Zeit genervt von uns, weil wir eine sehr konservative Haltung dazu haben, was ChatGPT in einer Antwort sagen wird, richtig? Und so, wenn etwas auch nur annähernd, weißt du, wie, sie sagen: ‚Hey, dieses Lied kann nicht mehr urheberrechtlich geschützt sein. Du musst es zeigen.‘ Und wir sind irgendwie berüchtigt dafür, ziemlich restriktiv in dieser Hinsicht zu sein.

34:28 Der verdächtige Tod von Altmans ehemaligem Mitarbeiter

Also hattet ihr Beschwerden von einem Programmierer, der sagte, ihr würdet im Grunde genommen die Sachen von Leuten stehlen und sie nicht bezahlen, und dann wurde er ermordet gefunden. Was war das?
Auch eine große Tragödie. Äh, er hat Selbstmord begangen.

Denkst du, er hat Selbstmord begangen?
Ich denke das wirklich. Das war wie ein Freund von mir. Das ist wie ein Typ, der, und kein enger Freund, aber das ist jemand, der sehr lange bei OpenAI gearbeitet hat. Ich habe, ich meine, ich war wirklich erschüttert von dieser Tragödie. Ich habe viel Zeit damit verbracht, alles zu lesen, was ich konnte, wie ich sicher bin, dass du und andere es auch getan haben, über das, was passiert ist. Ähm, es sieht für mich wie ein Selbstmord aus.

Warum sieht es wie ein Selbstmord aus?
Es war eine Waffe, die er gekauft hatte. Es war, das ist wie grausam, darüber zu sprechen, aber ich habe den ganzen wie medizinischen Bericht gelesen. Sieht es für dich nicht wie einer aus?
Nein, er wurde definitiv ermordet, denke ich.
Ähm, es gab Anzeichen eines Kampfes, natürlich. Die Überwachungskamera, die Kabel waren durchtrennt. Er hatte gerade Essen zum Mitnehmen bestellt, war von einem Urlaub mit seinen Freunden auf Catalina Island zurückgekommen. Kein Hinweis darauf, dass er selbstmordgefährdet war. Keine Notiz und kein Verhalten. Er hatte gerade mit einem Familienmitglied am Telefon gesprochen. Und dann wird er tot aufgefunden mit Blut in mehreren Räumen. Also das ist unmöglich. Es scheint wirklich offensichtlich, dass er ermordet wurde. Hast du mit den Behörden darüber gesprochen?
Ich habe nicht mit den Behörden darüber gesprochen.

Ähm, und seine Mutter behauptet, er wurde auf deine Anweisung hin ermordet.

Glaubst du das?
Ich, nun, ich frage.
Ich meine, du hast es gerade gesagt, also glaubst du das?

Ich denke, dass es ähm wert ist, das zu untersuchen. Und ich meine, wenn ein Typ herauskommt und dein Unternehmen beschuldigt, Verbrechen zu begehen, habe ich natürlich keine Ahnung, ob das stimmt oder nicht. Ähm, und dann getötet aufgefunden wird und es Anzeichen eines Kampfes gibt, denke ich nicht, dass es wert ist, das abzutun. Ich denke nicht, dass wir sagen sollten, nun, er hat sich selbst umgebracht, wenn es keine Beweise dafür gibt, dass der Typ überhaupt depressiv war. Ähm, ich denke, und wenn er dein Freund war, würde ich denken, dass du mit seiner Mutter sprechen wollen würdest, oder…
Ich habe es angeboten, sie wollte nicht.

Also, fühlst du, weißt du, wenn Leute das ansehen und sagen, weißt du, es ist möglich, dass das passiert ist. Fühlst du, dass das die Sorgen widerspiegelt, die sie über das haben, was hier passiert? Wie, Leute haben Angst, dass das wie…

Ich habe nicht viele Interviews gemacht, bei denen ich beschuldigt wurde, wie…

Oh, ich beschuldige dich überhaupt nicht. Ich sage nur, dass seine Mutter das sagt. Ich denke nicht, dass eine faire Einschätzung der Beweise überhaupt auf Selbstmord hindeutet. Ich sehe das einfach nicht. Und ich verstehe auch nicht, warum die Behörden, wenn es Anzeichen eines Kampfes gibt und Blut in zwei Räumen bei einem Selbstmord, wie kann das eigentlich passieren? Ich verstehe nicht, wie die Behörden das einfach als Selbstmord abtun können. Ich finde das seltsam.

Du verstehst, wie das wie eine Beschuldigung klingt?

Natürlich. Und ich meine, ich lasse es klar sein, noch einmal, ich beschuldige dich nicht des Fehlverhaltens, aber ich denke, es ist wert, herauszufinden, was passiert ist. Und ich verstehe nicht, warum die Stadt San Francisco sich weigert, das über einen einfachen Selbstmord hinaus zu untersuchen.

Ich meine, ich denke, sie haben es ein paar Mal mehr als einmal untersucht, soweit ich das verstehe. Ich habe die, und ich werde völlig sagen, als ich zuerst davon hörte, klang es für mich sehr verdächtig.

Ja.
Ähm, und ich weiß, dass du involviert warst, die Mutter hat sich an den Fall gewandt, und ich, weißt du, ich weiß nichts darüber. Es ist nicht meine Welt. Sie hat sich einfach kalt an mich gewandt. Sie hat sich kalt an mich gewandt.
Wow.
Und äh, und ich habe ausführlich mit ihr gesprochen, und es hat mich total erschreckt. Der Junge wurde eindeutig von jemandem getötet. Das war meine Schlussfolgerung, objektiv ohne eigenes Interesse, und du, nachdem du den neuesten Bericht gelesen hast.
Ja.

Wie, schau, und ich habe sofort einen Kongressabgeordneten aus Kalifornien, Ro Khanna, angerufen und gesagt, das ist verrückt. Du musst das untersuchen. Und es ist nie etwas passiert. Und ich bin wie, was ist das?
Wieder, ich denke, das ist, ich fühle mich seltsam und traurig, das zu diskutieren und muss völlig verrückt erscheinen, und du beschuldigst mich ein bisschen, aber ähm, das war wie eine wunderbare Person und eine Familie, die offensichtlich leidet.
Ja.
Und ich denke, du kannst völlig den Punkt nehmen, dass du nur versuchst, die Wahrheit darüber herauszufinden, was passiert ist, und ich respektiere das. Ähm, aber ich denke, sein Andenken und seine Familie verdienen es, mit einem gewissen Maß an Respekt und Trauer behandelt zu werden, das ich hier nicht ganz spüre.

Ich frage im Auftrag seiner Familie. Ähm, also zeige ich ihnen definitiv Respekt. Ähm, und ich beschuldige dich überhaupt nicht, an diesem Vorfall beteiligt zu sein. Was ich sage, ist, dass die Beweise nicht auf Selbstmord hindeuten und dass die Behörden in deiner Stadt das übergehen und die Beweise ignorieren, die jeder vernünftige Mensch sagen würde, auf einen Mord hinauslaufen, finde ich sehr seltsam, und es erschüttert das Vertrauen, das man in die Fähigkeit unserer Systeme hat, auf die Fakten zu reagieren.
Also, was ich sagen wollte, ist, nach dem ersten Satz an Informationen, die herauskamen, war ich wirklich wie, Mann, das sieht nicht nach einem Selbstmord aus. Ich bin verwirrt. Das…

Okay, also bin ich nicht verrückt hier.
Nun, aber dann, nachdem die zweite Sache herauskam und mehr Details, war ich wie, okay,

Was hat deine Meinung geändert?
Ähm, der zweite Bericht über die Art, wie die Kugel in ihn eindrang und die Art von Person, die wie den wahrscheinlichen Weg der Dinge durch den Raum verfolgt hat. Ich nehme an, du hast dir das auch angesehen.

Ja, habe ich.
Und was daran hat deine Meinung nicht geändert?

Es hat für mich einfach keinen Sinn ergeben. Warum sollten die Kabel der Überwachungskamera durchtrennt sein? Und wie kam es, dass er in zwei Räumen blutete, nachdem er sich selbst erschossen hat? Und warum war eine Perücke im Raum, die nicht seine war? Und gab es jemals einen Selbstmord, bei dem es überhaupt keine Anzeichen dafür gab, dass die Person selbstmordgefährdet war, die gerade Essen zum Mitnehmen bestellt hat? Ich meine, wer bestellt DoorDash und erschießt sich dann? Ich meine, vielleicht. Ich habe als Polizeireporter viele Verbrechen abgedeckt. Ich habe noch nie von so etwas gehört. Also nein, ich war noch verwirrter.

Ich, das ist der Punkt, an dem es, denke ich, ein wenig schmerzhaft wird, einfach nicht das Maß an Respekt, das ich jemandem mit diesem…

Ich verstehe es, ich verstehe es völlig, Leute begehen oft Selbstmord ohne Notizen, wie das passiert, Leute bestellen definitiv Essen, das sie mögen, bevor sie Selbstmord begehen, wie, das ist eine unglaubliche Tragödie und und ich, das ist die Ansicht seiner Familie, und sie denken, es war ein Mord, und deshalb frage ich, wenn ich seine Familie wäre, bin ich sicher, ich würde Antworten wollen, und ich bin sicher, ich wäre mit wirklich nichts zufrieden, ich meine, es gibt nichts, was mich in diesem, weißt du, richtig trösten würde?

Wie, also verstehe ich es. Ich mache mir auch viel aus Respekt ihm gegenüber, richtig?

41:37 Altmans Gedanken zu Elon Musk

Ähm, ich muss deine Version von Elon Musk fragen, hat wie dich angegriffen, und all das ist, was ist der Kern dieses Streits aus deiner Sicht?

Schau, ich weiß, er ist ein Freund von dir, und ich weiß, auf welcher Seite du…

Ich habe tatsächlich keine Position dazu, weil ich es nicht gut genug verstehe, um es zu verstehen.

Er hat uns geholfen, OpenAI zu gründen. Ich bin sehr dankbar dafür. Äh, ich habe wirklich lange Zeit zu ihm als einfach unglaublichem Helden und, weißt du, großem Juwel der Menschheit aufgesehen. Ich habe jetzt andere Gefühle. Ähm…

Was sind deine Gefühle jetzt?
Äh, nicht mehr ein Juwel der Menschheit. Es gibt Dinge an ihm, die unglaublich sind, und ich bin dankbar für viele Dinge, die er getan hat. Es gibt viele Dinge an ihm, von denen ich denke, dass sie äh, Eigenschaften sind, die ich nicht bewundere. Ähm, wie auch immer, er hat uns geholfen, OpenAI zu gründen, und er hat später entschieden, dass wir nicht auf einer Erfolgsbahn waren, und er wollte nicht, weißt du, er hat uns irgendwie gesagt, wir hätten 0 % Chance auf Erfolg, und er würde gehen und seine konkurrierende Sache machen, und dann haben wir es okay gemacht. Und ich denke, er wurde verständlicherweise verärgert, wie, ich würde mich in dieser Situation schlecht fühlen. Und seitdem hat er irgendwie versucht, er hat als konkurrierenden Klon gearbeitet und versucht, uns zu verlangsamen und uns zu verklagen und dies und das zu tun. Und das ist irgendwie meine Version davon. Du hast eine andere.

Du sprichst nicht mehr mit ihm?
Sehr wenig.

43:00 Welche Jobs gehen durch KI verloren?

Ähm, wenn KI schlauer wird, denke ich, ist sie wahrscheinlich schon schlauer als jede Person. Und wenn sie weiser wird, wenn wir uns darauf einigen können, dass sie bessere Entscheidungen trifft als Menschen, dann verdrängt sie per Definition irgendwie die Menschen aus dem Zentrum der Welt, richtig?

Ich denke nicht, dass es sich so anfühlen wird. Ich denke, es wird sich wie ein, weißt du, wirklich schlauer Computer anfühlen, der uns vielleicht berät, und wir hören manchmal darauf, manchmal ignorieren wir ihn. Es wird nicht, ich denke nicht, dass es sich wie Handlungsfähigkeit anfühlen wird. Ich denke nicht, dass es unser Gefühl der Handlungsfähigkeit mindern wird. Ähm, Leute nutzen ChatGPT bereits auf eine Weise, bei der viele von ihnen sagen würden, es ist viel schlauer als ich bei fast allem. Aber sie treffen immer noch die Entscheidungen. Sie entscheiden immer noch, was sie fragen, worauf sie hören, worauf nicht. Und ich denke, das ist irgendwie die Form der Technologie.

Wer verliert seinen Job wegen dieser Technologie?

Ähm, ich werde das mit der offensichtlichen, aber wichtigen Aussage einschränken, dass niemand die Zukunft vorhersagen kann. Und ich werde, wenn ich versuche, das präzise zu beantworten, viele dumme Dinge sagen, aber ich werde versuchen, einen Bereich zu wählen, bei dem ich zuversichtlich bin, und Bereiche, bei denen ich viel weniger zuversichtlich bin. Ähm, ich bin zuversichtlich, dass viel aktueller Kundensupport, der über ein Telefon oder einen Computer stattfindet, diese Leute werden ihre Jobs verlieren, und das wird besser von einer KI gemacht. Ähm, jetzt gibt es vielleicht andere Arten von Kundensupport, bei denen du wirklich wissen willst, dass es die richtige Person ist. Äh, ein Job, bei dem ich zuversichtlich bin, dass er nicht so stark betroffen sein wird, ist wie bei Krankenschwestern. Ich denke, die Leute wollen wirklich die tiefe menschliche Verbindung mit einer Person in dieser Zeit. Und egal, wie gut der Rat der KI oder des Roboters oder was auch immer ist, du wirst das wirklich wollen. Ein Job, bei dem ich viel weniger sicher bin, wie die Zukunft aussieht, ist bei Computerprogrammierern. Was es heute bedeutet, ein Computerprogrammierer zu sein, ist sehr anders als vor zwei Jahren. Du kannst diese KI-Tools nutzen, um einfach enorm produktiver zu sein, aber es ist immer noch eine Person da, und sie sind in der Lage, viel mehr Code zu generieren, viel mehr Geld zu verdienen als je zuvor. Und es stellt sich heraus, dass die Welt so viel mehr Software wollte, als die Welt zuvor Kapazität hatte zu erstellen, dass es einen unglaublichen Nachfrageüberhang gibt. Aber wenn wir weitere 5 oder 10 Jahre vorspulen, wie sieht das aus? Sind es mehr Jobs oder weniger? Da bin ich unsicher.

Aber es wird massive Verdrängung geben, und vielleicht werden diese Leute etwas Neues und Interessantes und Lukratives finden, um zu tun. Aber wie groß ist diese Verdrängung, denkst du?
Jemand hat mir kürzlich gesagt, dass der historische Durchschnitt etwa 50 % der Jobs sind, die sich signifikant ändern. Vielleicht verschwinden sie nicht ganz, aber sie ändern sich signifikant, alle 75 Jahre im Durchschnitt. Das ist die Art von Halbwertszeit der Dinge. Und meine kontroverse Meinung wäre, dass dies wie ein Moment des unterbrochenen Gleichgewichts sein wird, wo viel davon in kurzer Zeit passieren wird. Aber wenn wir herauszoomen, äh, wird es nicht dramatisch anders sein als die historische Rate. Wie, wir werden viel in dieser kurzen Zeit haben, und dann wird es irgendwie weniger totale Jobwechsel sein, als wir denken. Es wird immer noch ein Job da sein. Es wird einige völlig neue Kategorien geben, wie mein Job, weißt du, ein Technologieunternehmen zu leiten. Das wäre vor 200 Jahren schwer vorstellbar gewesen. Ähm, aber es gibt viele andere Jobs, die richtungsmäßig ähnlich sind wie Jobs, die vor 200 Jahren existierten. Und es gibt Jobs, die vor 200 Jahren üblich waren und jetzt nicht mehr existieren. Und wenn wir wieder, ich habe keine Ahnung, ob das stimmt oder nicht, aber ich werde die Zahl zum Zweck der Argumentation verwenden. Wenn wir annehmen, dass es 50 % Umsatz alle 75 Jahre sind, äh, dann könnte ich völlig an eine Welt glauben, in der in 75 Jahren die Hälfte der Leute etwas völlig Neues tun und die Hälfte der Leute etwas tun, das irgendwie wie einige Jobs von heute aussieht.

47:58 Welche Nachteile hat KI?

Bist du, ich meine, das letzte Mal, als wir eine industrielle Revolution hatten, gab es wie Revolution und Weltkriege. Denkst du, wir werden das diesmal sehen?
Ich, wieder, niemand weiß es sicher. Ich bin nicht zuversichtlich bei dieser Antwort, aber mein Instinkt ist, dass die Welt jetzt so viel reicher ist als zur Zeit der industriellen Revolution, dass wir tatsächlich mehr Veränderungen schneller aufnehmen können, als wir es zuvor konnten. Ähm, es gibt viel, was nicht um Geld bei einem Job geht. Es gibt Bedeutung, es gibt viel Gemeinschaft. Ähm, ich denke, wir sind in der Gesellschaft leider bereits an einem ziemlich schlechten Punkt da. Ich bin nicht sicher, wie viel schlimmer es werden kann. Ich bin sicher, es kann. Ich war angenehm überrascht von der Fähigkeit der Menschen, sich ziemlich schnell an große Veränderungen anzupassen. Äh, wie COVID war für mich ein interessantes Beispiel dafür, wo die Welt irgendwie auf einmal stehenblieb und die Welt von einer Woche zur nächsten sehr anders war, und ich war sehr besorgt darüber, wie die Gesellschaft sich an diese Welt anpassen würde, und es lief offensichtlich nicht perfekt, aber insgesamt war ich wie, in Ordnung, das ist ein Punkt zugunsten der gesellschaftlichen Widerstandsfähigkeit, und Leute finden, weißt du, neue Wege, ihr Leben sehr schnell zu leben, ich denke nicht, dass KI annähernd so abrupt sein wird,

Also was wird der Nachteil sein, ich meine, ich sehe die Vorteile sicher, weißt du, Effizienz, medizinische Diagnosen scheinen viel genauer zu werden, weniger Anwälte. Vielen Dank dafür. Aber was sind die Nachteile, über die du dir Sorgen machst?
Ich denke, das ist einfach irgendwie, wie ich verkabelt bin. Ich mache mir immer am meisten Sorgen über die unbekannten Unbekannten. Wenn es ein Nachteil ist, über den wir wirklich zuversichtlich sein und nachdenken können, ähm, weißt du, wir haben früher über einen gesprochen, nämlich dass diese Modelle sehr gut in Biologie werden, und sie könnten uns helfen, biologische Waffen zu entwerfen. Äh, weißt du, eine weitere Pandemie im Stil von COVID zu entwickeln, darüber mache ich mir Sorgen, aber weil wir uns darüber Sorgen machen, denke ich, wir und viele andere Leute in der Industrie denken hart darüber nach, wie man das mildern kann, die unbekannten Unbekannten, wo okay, es gibt wie einen gesellschaftlichen Skaleneffekt davon, dass viele Leute gleichzeitig mit demselben Modell sprechen, das ist wie ein albernes Beispiel, aber es ist eines, das mich kürzlich getroffen hat, ähm, LLM wie unseres und unser Sprachmodell und andere haben eine Art bestimmten Stil, weißt du, sie sprechen in einem bestimmten Rhythmus, und sie haben eine etwas ungewöhnliche Diktion, und vielleicht überbenutzen sie Gedankenstriche und was auch immer. Und ich habe kürzlich bemerkt, dass echte Menschen das wie aufgegriffen haben, und es war ein Beispiel für mich wie, Mann, du hast genug Leute, die mit demselben Sprachmodell sprechen, und es verursacht tatsächlich eine Veränderung im gesellschaftlichen Maßstab des Verhaltens.

Ja.
Und weißt du, dachte ich, dass ChatGPT dazu führen würde, dass Leute im wirklichen Leben viel mehr Gedankenstriche benutzen? Sicherlich nicht. Es ist keine große Sache, aber es ist ein Beispiel dafür, wo es diese unbekannten Unbekannten geben kann, das ist einfach wie, das ist eine mutige neue Welt.

49:37 Ist KI eine Religion?

Also sagst du, ich denke richtig und prägnant, dass Technologie das menschliche Verhalten verändert, natürlich, und unsere Annahmen über die Welt und einander und all das verändert. Und viel davon kannst du vorhersagen. In Anbetracht dessen, dass wir das wissen, warum sollte der interne moralische Rahmen der Technologie nicht völlig transparent sein? Wir bevorzugen dies gegenüber jenem. Ich meine, das ist offensichtlich eine Religion. Ich denke nicht, dass du zustimmen wirst, es so zu nennen. Es ist für mich sehr klar eine Religion. Das ist kein Angriff.
Ich nehme das tatsächlich nicht als Angriff, aber ich würde gerne hören, was du damit meinst.

Nun, es ist etwas, von dem wir annehmen, dass es mächtiger ist als Menschen, und zu dem wir um Führung schauen. Ich meine, du siehst das schon zur Schau gestellt. Was ist die richtige Entscheidung? Ich stelle diese Frage wem? Meinen engsten Freunden, meiner Frau und Gott. Und das ist eine Technologie, die eine sicherere Antwort liefert, als irgendeine Person es kann. Also ist es eine Religion. Und die Schönheit der Religionen ist, dass sie einen Katechismus haben, der transparent ist. Ich weiß, wofür die Religion steht. Hier ist, wofür sie ist. Hier ist, wogegen sie ist. Aber in diesem Fall habe ich gedrängt, und ich habe dich aufrichtig nicht angegriffen. Ich habe dich nicht angegriffen, aber ich habe versucht, zum Kern zu kommen. Die Schönheit einer Religion ist, dass sie zugibt, dass sie eine Religion ist, und dir sagt, wofür sie steht. Der beunruhigende Teil dieser Technologie, nicht nur deines Unternehmens, sondern auch anderer, ist, dass ich nicht weiß, wofür sie steht, aber sie steht für etwas. Und wenn sie das nicht zugibt und uns sagt, wofür sie steht, dann führt sie uns auf eine Art versteckte Weise zu einer Schlussfolgerung, die wir vielleicht nicht einmal wissen, dass wir erreichen. Siehst du, was ich sage? Also, warum nicht einfach offenlegen und sagen, ChatGPT ist dafür oder, weißt du, wir sind für Selbstmord bei Unheilbar-Kranken, aber nicht bei Kindern, oder was auch immer, warum nicht einfach uns sagen…
Ich meine, der Grund, warum wir diese lange Modellspezifikation schreiben und der Grund, warum wir sie mit der Zeit erweitern, ist, damit du sehen kannst, hier ist, wie wir beabsichtigen, dass sich das Modell verhält. Ähm, was früher passierte, bevor wir das hatten, war, dass Leute zu Recht sagten, ich weiß nicht, was das Modell überhaupt zu tun versucht, und ich weiß nicht, ob das ein Fehler oder das beabsichtigte Verhalten ist. Sag mir, was dieses lange, lange Dokument, weißt du, sag mir, wie du vorgehen wirst, wann du das tun wirst und wann du mir das zeigen wirst und wann du sagen wirst, dass du das nicht tun wirst. Der Grund, warum wir versuchen, das alles aufzuschreiben, ist, ich denke, die Leute müssen es wissen.

Und gibt es einen Ort, an den man gehen kann, um eine klare Antwort darauf zu finden, was eure Präferenzen als Unternehmen sind, Präferenzen, die auf nicht ganz direkte Weise auf den Globus übertragen werden? Wie, wo kann man herausfinden, wofür das Unternehmen steht, was es bevorzugt?
Ich meine, unsere Modellspezifikation ist die wie Antwort darauf. Jetzt denke ich, dass wir sie mit der Zeit immer detaillierter machen müssen, da Leute das in verschiedenen Ländern nutzen. Es gibt unterschiedliche Gesetze, was auch immer, wie, es wird nicht für jeden Nutzer überall auf die gleiche Weise funktionieren, aber und das tue ich, also erwarte ich, dass dieses Dokument sehr lang und sehr kompliziert wird, aber deshalb haben wir es.

52:31 Die Gefahren von Deepfakes

Lass mich dir eine letzte Frage stellen, und vielleicht kannst du diese Angst zerstreuen, dass die Macht der Technologie es schwierig, unmöglich machen wird, für irgendjemanden den Unterschied zwischen Realität und Fantasie zu erkennen. Das ist eine berühmte Sorge, aber dass, weil sie so geschickt darin ist, Menschen und ihre Sprache und ihre Bilder nachzuahmen, dass es irgendeine Möglichkeit erfordern wird, zu verifizieren, dass du derjenige bist, der du sagst, dass du bist, und das wird per Definition Biometrie erfordern, was per Definition die Privatsphäre für jede Person auf der Welt eliminieren wird.
Ich denke nicht, dass wir Biometrie benötigen oder erfordern sollten, um die Technologie zu nutzen. Ähm, ich mag nicht, ich denke, du solltest einfach in der Lage sein, ChatGPT von wie jedem Computer aus zu nutzen.

Ja. Nun, ich stimme stark zu. Aber dann, an einem bestimmten Punkt, wenn du weißt, Bilder oder Klänge, die eine Person imitieren, weißt du, wird es einfach zu einfach, dein Girokonto damit zu leeren. Also, wie gehst du damit um?
Ein paar Gedanken dazu. Erstens, ich denke, wir steuern schnell auf eine Welt zu, in der die Leute verstehen, dass, wenn du einen Anruf von jemandem bekommst, der wie dein Kind oder dein Elternteil klingt, oder wenn du ein Bild siehst, das echt aussieht, du wirklich einen Weg haben musst, zu verifizieren, dass du nicht betrogen wirst. Und das ist jetzt wie, das ist keine theoretische Sorge mehr. Weißt du, du hörst all diese Berichte die ganze Zeit. Ja.
Ähm, Leute sind schlau, die Gesellschaft ist widerstandsfähig. Ich denke, die Leute verstehen schnell, dass das jetzt eine Sache ist, die böse Akteure nutzen, und Leute verstehen, dass du auf verschiedene Weisen verifizieren musst. Ich vermute, dass zusätzlich zu Dingen wie Familienmitgliedern, die Codewörter haben, die sie in Krisensituationen verwenden, wir Dinge sehen werden wie, wenn ein Präsident eines Landes eine dringende Nachricht herausgeben muss, sie kryptografisch signieren oder auf andere Weise irgendwie ihre Authentizität garantieren. Also hast du keine generierten Videos von Trump, der sagt: ‚Ich habe gerade dies oder das getan.‘ Und Leute, ich denke, Leute lernen schnell. Ähm, dass das, das ist eine neue Sache, die böse Jungs mit der Technologie machen, mit der sie fertigwerden müssen. Ähm, und ich denke, das ist der größte Teil der Lösung, nämlich dass Leute standardmäßig überzeugend aussehenden Medien nicht vertrauen werden, und wir werden neue Mechanismen bauen, um die Authentizität von Kommunikation zu verifizieren.

Aber die werden biometrisch sein müssen.
Nein, überhaupt nicht.

Ich meine, wenn ich, ich, ich meine, wie wenn der Präsident der USA eine, ich verstehe das, aber ich meine für den Durchschnitt, am durchschnittlichen Tag wartest du nicht irgendwie darauf, dass der Präsident einen Krieg ankündigt, du versuchst wie E-Commerce zu betreiben und wie könntest du…
Nun, ich denke, wie bei deiner Familie, wirst du ein Codewort haben, das du regelmäßig änderst, und wenn du miteinander kommunizierst und einen Anruf bekommst, fragst du nach dem Codewort, aber das ist sehr anders als ein biometrisches.

Also stellst du dir nicht vor, ich meine, um ein kommerzielles Flugzeug zu besteigen, weißt du, Biometrie sind jetzt Teil des Prozesses, siehst du das nicht als bald gesellschaftsweit obligatorisch?
Ähm, ich hoffe, ich hoffe wirklich, dass es nicht obligatorisch wird, ich denke, es gibt Versionen von datenschutzfreundlichen Biometrien, die ich viel mehr mag als wie das Sammeln von vielen persönlichen digitalen Informationen über einen, aber ich denke nicht, dass sie sollten, ich denke nicht, dass Biometrie obligatorisch sein sollten. Ich denke nicht, dass du wie Biometrie bereitstellen musst, um in ein Flugzeug zu steigen, zum Beispiel.

Was ist mit Banking?
Ich denke nicht, dass du das für Banking tun musst. Ich könnte es bevorzugen, wie äh, weißt du, wie einen Fingerabdruck-Scan, um auf meine Bitcoin-Wallet zuzugreifen, anstatt wie alle meine Informationen einer Bank zu geben. Aber das sollte eine Entscheidung für mich sein.

Ich schätze es. Danke, Sam.
Danke.