Corporate Therapy
Noch ein Business Podcast! Juhu! Wer braucht denn sowas?
Corporate Therapy ist ein kritischer Management Podcast – und der Name ist Programm: Wir legen darin „die Corporate” und gelegentlich auch uns selbst auf die sprichwörtliche Couch. Gemeinsam versuchen wir, Probleme und Phänomene rund um Arbeit und Organisation besser zu verstehen und vielleicht ab und an auch eine Lösungsstrategie zu entwickeln – jedoch ohne Garantie auf Genesung!
Wir sind Human Nagafi, Mary-Jane Bolten und Patrick Breitenbach.
Neben den Beiträgen unserer großartigen Gäste aus Wissenschaft, Politik und Wirtschaft freuen wir uns auch sehr über Fragen, Kritik und Anregungen von euch. Dazu könnt ihr uns entweder per Mail oder LinkedIn schreiben oder euch direkt zu einem unserer Live-Podcasts einschalten und mitdiskutieren. Viel Spaß und gute Erholung.
Corporate Therapy
Episode #076 // ChatGPT, AI & stochastische Papageien // mit Jürgen "tante" Geuter
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Schickt uns euer Feedback zur Episode
In Episode 76 betrachten wir eine neue religiöse Erscheinung: Künstliche Intelligenz.
Wir sprechen mit tante über Intelligenz, Bewusstsein und den Wunsch nach einem höheren Wesen: Dabei untersuchen wir die Linie der menschlichen Interpretation des “Schöpferischen”: ist Intendiertes wirklich mehr Wert? Ist Zufall schlecht? Aber wir betrachten auch praktische Implikationen der neuen Götter ChatCPT und Co. in Bezug auf Soziales und Politisches.
Shownotes:
- Harry Frankfurt, On Bullshit, Buch
- Dan McQuillan, Data Science as Machinic Neoplatonism, Buch
- Ted Chiang, Why Computers Won’t Make Themselves Smarter, Artikel
- Ijoma Mangold & Lars Weisrbod, Die sogenannte Gegenwart: Ich bin doch selber nur Software, Podcast-Folge
- Clarkesworld Magazine
- (Google) Vaswani, Shazeer et al., Attention is All You Need, Artikel
- David Golumbia, The Cultural Logic of Computation, Buch
- 65 Days of Static,, Band
- Cathy O’Neill, Weapons of Math Destruction, Buch
- Malcom Harris, Palo Alto, Buch
- Adrian Daub, What Tech Calls Thinking, Buch
Letztens habe ich gesagt, hey, was muss man eigentlich tun, um das 2%-Ziel zu erreichen? Da meinte er, sorry, du hast einen Fehler gemacht. Du weißt wohl das 2-Grad-Ziel. Was muss man dafür machen? Und dann hat mir die Erklärung. KI ist ja auch Bürokratie auf Steroiden.
SPEAKER_02Das ist das, was man da reinmacht. Man baut so Bürokratiesysteme, die super effizient sind und Entscheidungen treffen können. Aber das ist halt nicht das, was wir wollen, eben weil wir nicht diese automatische Klasse machen. Money, money, I want more money, I want more.
SPEAKER_04I don't even know why.
unknownWhy, why, why?
SPEAKER_01Willkommen zum Corporate Therapy Podcast. Heute haben wir wieder eine spannende Episode. Unser Gast heute ist, wie soll ich sagen, kein neuer Gast, sondern er war schon mal hier. Man muss sagen, das war die längste Episode, die wir jemals gemacht haben zu einem sehr technologischen Thema. Und zwar damals haben wir über Kryptos, NFTs und die Blockchain gesprochen. Und zwar haben wir heute wieder zu Gast Jürgen Geuter, a.k.a. Tante. Guten Tag.
SPEAKER_02Hallo, vielen Dank für die Einladung.
SPEAKER_01Und natürlich, wenn wir miteinander über Technologie reden, darf nicht die Technologie-Expertin bei uns im Team wählen. Mary Jane Bolton. Guten Tag, Mary.
SPEAKER_00Auch CTO von 1789.
SPEAKER_01Du hast ja Soziologie studiert und man sagt doch irgendwie Soziotechnologie Technologie oder sowas. Keine Ahnung. Also halt ohne Nullen und Einsen.
SPEAKER_00Sozialtechnologie.
SPEAKER_01Sozialtechnologie, genau das Wort habe ich gesucht. Vielen Dank.
SPEAKER_00Ich freue mich auch dabei zu sein und bin sehr gespannt auf heute, genau wegen diesem Crossover, nämlich, weil ich glaube, diese Technologie hat, glaube ich, große Auswirkungen auf das Soziale. Deswegen bin ich extra gespannt.
SPEAKER_01Genau, denn wir haben uns heute zusammengetroffen, denn das letzte Mal, als du bei uns warst, Jürgen, da war so ein Thema richtig, ich würde mal sagen, Peak LinkedIn-Hype. Und zwar, als es um Blockchain und NFTs ging und weiß ich nicht, jeder zweite plötzlich Web 3-Berater und Experte wurde. Und man könnte sagen, der Wind hat sich gedreht und man merkt heute auf LinkedIn, jetzt sind die Chat-GPT, GPT 3, 4, OpenAI und was weiß ich, was es alles draußen gibt, Experten auf LinkedIn unterwegs. Also man kann sagen, LinkedIn ist wieder in einer transformativen Phase. Und diesmal ist das Thema für mich persönlich nicht so einfach wie beim letzten Mal, als wir über Blockchain und Kryptos gesprochen haben. Ich finde, es ist so ein Thema, da kann man super leicht, wie soll ich sagen, die Grenzen und die Verrücktheiten ziehen. Aber heute wollen wir über, ich sag mal, vielleicht künstliche Intelligenz, Artificial Intelligence und das, was heute uns, als das, was es uns heute erscheint, in Form von OpenAI, ChatGPT und so weiter, mal gemeinsam diskutieren. Ich versuche mit einer Frage zu starten und zwar, wie siehst du gerade diesen Hype? So die Revolution, die künstliche Intelligenz ist jetzt endlich da, wo sie ist. Wenn ich bei ChatGPT etwas eingebe, hat das schon eine andere Qualität, als das früher vielleicht mit Siri der Fall war. Wie nimmst du das wahr?
SPEAKER_02Es hat, glaube ich, zwei Aspekte. Das eine ist, wir sind sehr offensichtlich gerade in so einem Hype Cycle. So, OpenAI hat es sehr clever gespielt, sie haben ihr neues Language Model rausgehauen, schönes Interface davor gepackt, alle konnten damit spielen, alle sind heiß drauf. Und JournalistInnen haben ihr Übriges dazu getan und jeder Artikel in den Tagen danach fing an mit, ja, ich habe jetzt mal den ersten Absatz von ChatGPT schreiben lassen. Und das führt natürlich krass aus so einer Überhitzung des Ganzen, dem ja auch viele Leute im Feld sogar widersprechen und sagen, ja, das ist jetzt alles mal, kommt alle mal runter, das kann halt Dinge und das kann halt andere Dinge nicht. Es ist natürlich ein Hype, der eine andere Qualität hat als dieser Web 3-Hype damals, bei dem jetzt ja mittlerweile alle sich einig sind, dass da nicht viel dahinter steckte. Interessanterweise heute nochmal eine Äußerung vom Weißen Haus, die sehr explizit genau das gesagt haben und das deshalb auch so regulieren wollen. Also das haben wir das letzte Mal erfolgreich beerdigt, kann man sagen.
SPEAKER_01Menschen sind zur Vernunft gekommen.
SPEAKER_02Heute beerdigen wir AI. Nee, aber bei AI ist natürlich viel mehr drin, weil das halt auch noch eine viel längere Geschichte hat. Da hat jetzt jemand irgendwie eine halbgare Technologie und hofft damit, die Gesellschaft umzubauen, sondern neuronale Netze habe ich schon im Studium, und das ist jetzt auch mehr Jahre her, als ich zugeben möchte, schon gelernt. Hat vor allem mit Klassifikationen angefangen, das funktioniert dafür innerhalb bestimmter Parameter und man wendet halt das Ganze jetzt einfach vor allem in einer Skalierung an, die wir vorher nie gesehen haben. Und die kann natürlich auch neue Qualitäten mit sich bringen. Ob ein Hype gerechtfertigt ist, kann sich immer ein bisschen die Frage stellen. Also eigentlich sollten wir alle immer so ein bisschen über dem Hype stehen und sagen, okay, lass mal angucken, was es kann. Aber es ist auf jeden Fall was da. Das ist ja nichts, wo nichts ist, wo man jetzt nur das Blaue vom Himmel verspricht und morgen sind wir alle ohne Beine im Metaverse oder sowas. Das war die Phase auf LinkedIn zwischen Web 3 und KI, da waren alle noch Metaverse. Aber der Hype hat schon eine etwas absurde Qualität angenommen und kriegt dadurch auch so eine selbstverstärkende Logik. Und die finde ich sehr, sehr spannend, weil diese Systeme liefern halt was und alle sehen, dass es liefert. Und wenn man dann manchmal auch schon bei GPT-3 was dann rauskam, was halt so ein bisschen besser war. Und die Leute sagten, hier, unglaublich was generiert und man guckt drauf und denkt, aber das Ding widerspricht sich die ganze Zeit. Das sieht irgendwie aus wie Text, das ist schon richtig. Aber also dir muss doch klar sein, dass das da nicht so toll ist, wie du es gerade machst, aber alle wollten halt so ein bisschen dabei sein. Ich glaube, dieser Hype ist auch so ein bisschen der Phase der Welt, in der wir sind, geschuldet. Dass wir, wir leben so in einer Zeit, in der alle Systeme zusammenfallen. IPCC-Report sagt, ja, shit's fucked up and bullshit und wir machen nichts, weil es ja unbequem. Wir sehen, politisch gibt es Probleme, die Faschisten marschieren überall wieder, nehmen das zur Kenntnis und machen einfach weiter. Und da jetzt mal bei so einer Revolution wieder mal dabei sein zu können, die Positives verspricht, ist natürlich auch extrem verlockt. Und wir haben so lange nichts mehr gehabt, auf das man sich mal setzen konnte, so wie das Internet vor 20 Jahren, wo sich alle draufsetzten und da war was und das war cool und es hat irgendwie Vorwärtsmomentum. In der Zwischenzeit ist halt wenig davon passiert. Dieser Hype fällt halt auf diesen fruchtbaren Boden und auf so einen wirklich auch sehr verständlichen Wunsch, endlich mal eine positive Erzählung für irgendwas zu haben. Irgendetwas.
SPEAKER_01Oder sich zumindest von ihm was erzählen lassen.
SPEAKER_00Ja, und ich glaube, dazu kommt eine wichtige Sache, die du gesagt hast, und das ist das Interface, das einfach so einfach zu bedienen ist bei ChatGPT, dass du spielen kannst damit. Also du kannst einfach dich austoben da drin. Ich weiß nicht, jetzt muss ich irgendwie an Siri denken, wo man denkt, eigentlich ist Siri ja auch total einfach zu interagieren mit und war ja auch irgendwie mal lustig. Und dann hat man mal Siri gefragt, hä, kannst du mal einen Witz erzählen und so? Und dann hat die das gemacht und es war irgendwie witzig, aber war halt nicht so umfangreich. Aber ich glaube, das macht auch nochmal ein Riesending, dass einfach alle jetzt damit spielen können und sich selber mal so ein bisschen austesten damit.
SPEAKER_01Für mich ist dieses Thema natürlich jetzt so ein bisschen herausfordernd, das ich nicht sagen zu kritisieren, aber so ein bisschen auch zu durchdringen. Seitdem wir auch gesagt haben, wir wollen diesen Podcast machen, habe ich mir gesagt, komm, dann nutz das mal, versuch das mal in deinen Arbeitsalltag zu integrieren. Und ich habe mir sogar das GPT-4-Modell für Chat-GPT gemacht. Und ich muss ehrlicherweise sagen, es hat mir echt produktiv geholfen. Ich habe mir E-Mails schreiben lassen, ich habe so Basic-Sachen für Projektmanagement, so okay, habe ich alles auf dem Schirm, was man so halt so Basic-Projektmanagement-Sachen macht. Ich habe mir daraus die Aufgaben rausdefinieren lassen. Ich habe mir bei einem Spiel, Divinity Original Syn 2 Definitive Edition, bei einer Quest eine Frage gestellt und hat mir die Quest gar nicht so übel beantwortet. Er hat einen Fehler gehabt, er hat eine Echse als Elf definiert, aber es war eigentlich eine Echse. Und dann wollte er jetzt nicht einsehen, dass es eine Echse ist und ein Elf, aber das war so ein kleiner Diskurs, den wir dann hatten. Und das war für mich schon so ein bisschen qualitativ für jemanden, der sich so auch für diese ganzen technischen Themen so ein bisschen interessiert, so das fühlt sich jetzt aber schon anders an. Vielleicht auch die Art und Weise, wie dieser Text generiert wird. Also mal um ein Beispiel in den Ring zu werfen, ich habe nicht die beste Rechtschreibung. Und dem ist einfach egal. Wenn ich verschachtelte Sätze schreibe, ist ihm das egal. Und letztens habe ich gesagt, ey, was muss man eigentlich tun, um das 2%-Ziel zu erreichen? Da meint er, sorry, du hast einen Fehler gemacht. Du meinst wohl das 2-Grad-Ziel. Was muss man dafür machen? Und er hat mir die Erklärung dafür gegeben. Und das fühlt sich, und ich betone hier sozusagen diesen Begriff gefühlt, das fühlt sich irgendwie anders an. Und Jürgen, du bist ja jetzt ein, zwei, drei Tage auch in diesem Kontext unterwegs. Ist das so, dass diese Form, die wir gerade erleben, einer was auch immer, Intelligenz oder einer Problemlöserfähigkeit oder wie man das jetzt betiteln, wenn was das ist, ist sie schon anders? Also kann man schon sagen, okay, die haben es geschafft, wie auch Mary sagt, ein User-Interface zu generieren, das uns im Grunde etwas suggeriert, wo vielleicht dahinter nicht mehr ist? Oder wie kann man das bewerten, dieses Gefühl, dass da irgendwas anscheinend mehr ist?
SPEAKER_02Ja, man muss auf jeden Fall feststellen, dass diese ganzen Systeme, ob es jetzt Textgenerierung oder Bildgenerierung gibt es ja auch noch ist, die haben halt einen Zustand erreicht, dass sie gut genug für vieles sind. Das ist nichts, was die schon. Also man erkennt in diesen Texten eigentlich immer, dass sie da rauskommen, weil es gibt so strukturelle Muster, die man immer wieder erkennt. Also wenn du in einer Person fragst, das liest sich immer wieder erste Absatz Wikipedia-Artikel. Jedes Mal. Das ist immer so ein ganz langweilig runtergenudeltes Ding. Aber es funktioniert. Für ganz viele Dinge funktioniert das. Dass die Bilder dann häufig irgendwie sechs Finger generieren und dass die Person nur an einem Ohren Ohrring hat oder dass die Falten der Kleidung nicht korrekt sind. Für das meiste ist das scheißegal. Für die Illustration, für die man es braucht, ist das alles okay, ausreichend, komplett. Und genauso bei Text so. Bei vielen Mails, die wir schreiben, schreiben wir viel längere Texte, als wir eigentlich Informationen haben, aus was auch immer für Gründen. Wir glauben, dass die Mail, wenn wir einfach nur die Information schreiben, direkt so, als hätten wir nicht gearbeitet oder denken, es ist unhöflich oder was auch immer. Klar, das können wir locker damit auffüllen lassen, weil es auch nur Floskeln sind. Das sind halt Muster, die man anwenden kann und die man halt auch beliebig replizieren kann. Intelligenz ist halt ein super schwieriges Thema und es gibt, wenn man sich die Wissenschaft anguckt, die Wissenschaft, whatever that means, aber wenn man in unterschiedliche Wissenschaften guckt, es gibt so unendlich viele, fast, also natürlich nicht unendlich, aber sehr, sehr viele Definitionen von Intelligenz. Es gibt natürlich so bestimmte Patterns, die man erkennt. Meistens geht es darum, okay, du hast so eine Form von Weltverständnis und die Fähigkeit, dich deinen Zielen entsprechend irgendwie mit ihr zu beschäftigen. Du hast eigene Ziele und du kannst sie in der Welt irgendwie materialisieren, egal was auf dich zukommt, so ungefähr. Das sind halt immer Theorien, die davon ausgehen, dass Intelligenz so ein Wert ist von dir. Du, Human, du, Mary, ihr habt Intelligenz. Wie in so einem Rollenspiel, da hast du halt Intelligenz 13 oder 15 oder 8, was auch immer. Ich glaube, dass das keine sinnvolle Definition von Intelligenz ist. Ich glaube, Intelligenz ist eine Zuschreibung von außen. Wir sagen nämlich bei derselben Leistung nicht immer, dass es Intelligenz ist. Zum Beispiel sagt man, wenn eine, ich komme ja vom Land, aus so einem Dorf, und ganz häufig, wenn du siehst, so Bauern machen was, da wird gesagt, der ist bauernschlau. Der ist nicht intelligent. Der hat ein Unternehmen, was er leitet, der macht komplexe Dinge, der passt sich in einer komplexen Welt an, Wetter, was auch immer. Das ist aber nicht Intelligenz. Intelligenz ist so ein sehr bürgerlicher Wert, mit dem wir Leuten eben auch das Recht geben, Leuten und jetzt demnächst Maschinen das Recht geben, autonom zu sein. Wenn wir sagen, die Person ist sehr intelligent, dann heißt das, die Person darf selber für sich Entscheidungen treffen und wir müssen es respektieren. Wenn wir sagen, die Person ist nicht so intelligent, weil sie zum Beispiel eine Behinderung hat, dann dürfen wir Entscheidungen für die Person treffen, weil dann hat sie nicht das Recht, es selber zu machen. Kann sie ja nicht, ist ja zu doof. Und ich glaube, das passt gut dazu, dass die Leute, die diese Systeme bauen, sehr viel von Intelligenz sprechen, weil sie natürlich diese Projektion sehr mögen. Denn wenn die jetzt plötzlich Systeme bauen, denen wir zuschreiben, dass sie Agency haben, das heißt, dass sie Entscheidungen treffen dürfen und dass wir die respektieren müssen, ist es nützlich, wenn man dieses System baut. Wenn man so eine klassische Diskussion von Intelligenz betrachtet, so Intelligenz als innerer Wert einer Entität, eines Individuums, wie auch immer, dann muss man halt sagen, für eigentlich keine der Definitionen, die wir haben, stimmt das für sowas wie ChatGPT. Und ich will das jetzt gar nicht mystisch überhöhen, oh Gott, der Geist und die Seele, bla bla, überhaupt nicht. Es ist halt neulich hätte ich mal mal getestet, ChatGPTs Datensatz hört halt 2021 im September auf. Das ist der Grund, weshalb es bis dahin kann. Da ist kein Processing und da bildet sich kein Verständnis für irgendetwas heraus, was man auf andere Dinge anwenden kann. Das ist halt Zeichenschubserei. Das hat keine Bedeutung. Der sieht einfach nur, ich male jetzt hier so einen Kringel hin, da male ich da so einen Kringel hin und wir lesen da halt Begriffe raus und projizieren darauf, dass dahinter jetzt kognitive Prozesse gelaufen sind, die wir respektieren müssen. Das passiert an der Stelle nicht. Aber die Dinger sind halt so gut, dass es sehr leicht ist für uns, das rein zu projizieren. Ihr werdet es kennen, Joseph Weizenbaum hat damals ELISA programmiert, eine der ersten KIs und das Ding war eigentlich explizit gebaut, um zu zeigen, dass Maschinen nicht intelligent sind. Weil das Ding stellt nach einfachen Regeln dumme Fragen. Die Leute haben trotzdem angefangen, das Ding als Therapeuten zu benutzen und zu sagen, guck mal, da muss doch intelligent sein. Ich merke das doch. Der versteht mich doch, wenn ich mit ihm spreche. Oder sie versteht mich doch, wenn ich mit ihm spreche. Und diese Form von Projektion ist einfach so viel leichter geworden, dadurch, dass wir Interfaces haben, die uns in genau solche Pipelines bringen, in denen diese Dinger funktioniert. Chat-GPT kann ich einen Text entwerfen und der gibt mir einen Text zurück, der plausibel ist. Beeindruckend gut.
SPEAKER_00Spannend, das letzte, was du gesagt hast, quasi mit diesem, wie viel davon ist unsere Projektion da rein, also wie viel ist unsere Zuschreibung anstelle von quasi die innen wohnende Intelligenz. Weil ich erinnere mich, Humann, du hast mal vor mehreren Jahren eine Website gefunden, die generiert einen random Text. Kurz, ne, so fünf Sätze oder so.
SPEAKER_01Genau, es war kein random Text. Er generiert den auch nicht. Das war diese Internetseite Library of Babel, wo jemand im Grunde genommen. Nee, das meine ich nicht.
SPEAKER_00Das meine ich nicht. Erkläre kurz, was das ist.
SPEAKER_01Ah, okay. Für die Leute, die es nicht wissen, es gibt eine Internetseite, die heißt Library of Babel und dort sind im Grunde alle möglichen Wortkombinationen und was weiß ich, Buchstabenkombinationen, die es möglich ist, und da gibt es mehr Atom als im Universum, was auch immer. Und dort drin kann man im Grunde jedes geschriebene, gesprochene Ding, was auch immer, finden. Und es ist halt schon geschrieben.
SPEAKER_00Ja, also weil quasi jede Kombination da drin existiert, ist aber komplett useless.
SPEAKER_01Genau, die Mathematik dahinter ist auch erklärt und so weiter. Also es ist halt mathematisch.
SPEAKER_00Genau, ist aber komplett useless für jeden, ist halt irgendwie witzig, bringt ja halt nichts, weil du kannst ja da drinnen nichts irgendwie suchen oder so.
SPEAKER_01Genau, da drin ist die Antwort auf alles. Das Problem ist nur das Finden.
SPEAKER_00Eben. Und was ich aber meine, ist, da gab es so eine Website und da konnte man halt einen komplett random Text machen. Und diesen Text hast du dann über Slack mit uns allen geteilt und hast quasi gesagt, hey Leute, ich habe das gerade gelesen, könnt ihr mir mal helfen, das zu verstehen?
SPEAKER_03Ach ja.
SPEAKER_00Weil quasi die These ist, Menschen interpretieren überall was rein, wo die Satzstruktur stimmt. Und niemand hat diesen Text geschrieben mit einer Meinung, um einen Sinn zu vermitteln. Aber wir haben uns die ganze Zeit im Kopf darüber zerbrochen, was könnte der gemeint haben, der Autor, weil wir ja nicht wussten, dass es keinen Autor gibt.
SPEAKER_01Genau, es war so ein wissenschaftlicher Abstract, also so ein random wissenschaftlicher Abstract-Generator, der im Grunde schlau Wörter sagen, plausibel klingende Dinge miteinander in einem wissenschaftlichen Tonalität zusammengeschrieben hat, die aber keine Stichhaltigkeit haben.
SPEAKER_00Ja. Und deswegen, ich kann mir das gut vorstellen damit Eliza, dass wenn sie einfach nur blöde Fragen stellt, dass man dann denkt, oh, so eine einfache Frage wie deep. Und das ist jetzt mein neuer Therapeut.
SPEAKER_02Genau, Elisa war ein bisschen an der Art von Fragen von PsychotherapeutInnen ausgerichtet. Du sagst was und dann fragt Elisa, how does that make you feel? Und das kannst du immer fragen. Komplett random. Und natürlich interessiert Elisa auch die Antwort nicht, sondern es nimmt halt das Substantiv aus deinem Wort und spielt dir das als Frage halt quasi zurück. Du führst ein Selbstgespräch, aber es ist natürlich auch, das kann therapeutisch und sinnsstiftend sein für Menschen, aber es ist natürlich eine Projektion. Und ich meine, viele Dinge sind Projektionen. Also diese ganze KI-Debatte, wir witzelten gerade drum, dass auf LinkedIn jetzt ja alles KI-ExpertInnen sind. Und ich habe jetzt auch schon die ersten gedruckten Bücher gesehen. Das sind einfach nur Listings von Prompts. Welche Prompts musst du Chat-GPT eingeben, damit du was rauskriegst? Das kannst du heute als Buch verkaufen, dann bist du so. Wir haben das ja schon vor längerer Zeit gesehen, bevor diese Dinger populär wurden, sah man das in der Wissenschaft schon. Da wurden extrem viele Stellen ausgeschnitten. Wir brauchen jetzt mehr ProfessorInnen für KI, nicht für Lösung von Problemen, sondern für diese eine Technologie, die jetzt angewendet werden muss. Und dann waren alles ExpertInnen für KI, alle. Jeder. Du mal Excel benutzt hattest, ist es KI. Ich witzelte mal mit einem Kollegen bei der Arbeit zu sagen, wenn ich, ich baue eine Anwendung und du kannst davor gehen und du legst deine Hand auf einen Scanner und ich schreibe das eine KI, die wertet halt die Daten aus und die sagt dir, wie alt du wahrscheinlich die ist. Wenn ich dir das so sage, dann denkst du, okay, keine Ahnung, kommt raus, ich werde 85 Jahre, okay, interessant. Wenn ich dir sage, das ist einfach eine Anwendung, die gibt dir halt eine random Zahl zwischen 75 und 95 aus, ist es plötzlich nichts mehr wert. Technisch ist dasselbe. Aber was du damit tust, ist radikal unterschied. Und das ist was, was wir ganz stark an dieser Stelle sehen. Die sehen schon vorher vor diesen Machine Learning-Verfahren, die so einfach zugänglich waren, es waren ja alles KI-Unternehmen auch schon, KI-Startups. Und bei den meisten, wenn man auf Nachfrage merkte man, die benutzen auch dieses Machine Learning-Zeug gar nicht. Die benutzen halt dieses Meme. Weil dieses Meme schreibt deinen Tools, deiner Software viel mehr Macht zu, als sie sonst hätten. Sonst müsstest du sagen, ich habe eine Software und die Macht wird für dich. Das kannst du unter Umständen auch verkaufen, weil du sagst, ich habe eine KI. Das hat eine ganz andere Bedeutung für uns kulturell. Das ist etwas, was der britische Forscher Dan McQuillan in wirklich meinem liebsten Paper auf der ganzen Welt, das schönste Paper, was es gibt. Ich empfehle jedem und jeder, das zu lesen. Es heißt Data Science as Mechanic Neoplatonism, also Data Science als maschineller Neoplatonismus. Und er zeigt, dass halt Data Science, was im Prinzip, früher hätten wir das, was heute Machine Learning is Data Science an vielen Stellen genannt oder Profiling oder diesen ganzen Kram. Was das ist, ist der Glaube, dass wenn du diese Technologien, diese magischen Worte, auf die Daten loslässt, dann findest du die Wahrheit dahinter, die dir als Mensch eigentlich gar nicht zugänglich ist. Dadurch hast du Zugang zur idealen Welt, wie Plato das sagen würde. Und das ist so ein Belief, an den du halt hart mit diesem Zeug reinkommst. Und daher kommen ja auch so Narrative wie KI wird das Klima retten. Das hörst du aus der FDP immer. Technologieoffenheit, wir fahren weiter SUV, weil in fünf Jahren oder so, dann kommt eine KI, die macht das alles weg. Das ist ein Glaube, den du aufrechterhalten kannst, weil du genau dieses Glaubenssystem hast. Du glaubst, die nehmen Daten auf, die sind erstens wahr und zweitens richtig und drittens objektiv. Und wenn wir da diese Verfahren drauflegen, dann finden wir die Wahrheit dahinter. Und damit können wir dann die ganze Welt kontrollieren, die Revolution kommt und alles wird schön und Venture Capitalists werden noch reicher, als sie jetzt eh schon sind. Deshalb ist dieses Meme halt auch so extrem stark und verlockend, losgelöst von der technischen Implementierung. Technische Implementierung ist wirklich fast egal in vielen Leuten.
SPEAKER_00Ja, wie lustig, und das will auch niemand wissen. Also mit wie vielen Leuten in verschiedenen Beratungskontexten wir gesprochen haben und die uns dann erzählt haben von, wir haben da jetzt so ein Ding und das ist mit so einer KI und aber überhaupt auch gar nicht ein Interesse haben zu verstehen, was da denn eigentlich passiert. Also das fällt mir jetzt auf, wo du das so erklärst. Das ist ja eigentlich das Charmante daran, dass das quasi übermenschlich ist und nicht verstehbar vielleicht. Genau.
SPEAKER_02Das ist kein Bug, das ist ein Feature. Weil das ist, wie Magie funktioniert.
SPEAKER_01Können wir vielleicht einen ganz kleinen Sidestep machen, weil ich hätte heute darüber eine Diskussion, was das überhaupt ist, was wir als KI bezeichnen. Kann dieses Ding mehr als die Daten, die es hat? Und die eine Position war, naja, wenn es genug Wissen hat, dann können ja emergente Prozesse eintreten und es hat im Grunde Erkenntnisse über die Daten, die es selber hat. Und meine Position war, vielleicht ein bisschen überspitzt, es ist eigentlich ein Statistikprogramm. Es kann ja nur mit den Daten arbeiten und dann im Grunde Tangenten bilden. Weil es Reasent ja gar nicht wie Menschen. Es hat ja gar nicht diesen menschlichen Kognitionsprozess. Vielleicht kannst du uns so ein bisschen mehr als das geben. Was ist das, was wir heute überhaupt als KI bezeichnen?
SPEAKER_02Genau, wie du sagtest, das ist das, was wir heute als KI bezeichnen. KI ist natürlich ein ganz breites Feld mit auch ganz unterschiedlichen Technologien. Da gab es auch noch Fuzzy-Logic, das wurde auch in diesem KI-Bereich abgefrühstückt. Da gab es ganz viele Regelsysteme, Ontologien und da versucht immer wirklich so menschliches Reasoning nachzubauen. Also wie funktioniert eigentlich unser mentaler Prozess? Hat nicht skaliert, weil die Welt ist widersprüchlich und es ist alles sehr schwierig. Das ist halt ein breites Feld. Jetzt gerade ist das halt der dominante Strang in diesem ganzen KI-Diskurs, weil er halt sehr schnell Ergebnisse liefert und weil er sich gar nicht diese Mühe machen muss, eben auf Korrektheit zu bestehen, weil er einfach sagt, ich mache aber Statistik. Denn es ist wirklich einfach Statistik.
SPEAKER_01So semantische Netze und so war das, ne?
SPEAKER_02Es gab in der, ich glaube es in der New York Times, einen schönen Essay von einem Science-Fiction-Autor, Ted Chiang. Und er bezeichnete ChatGPT als blurry JPEG of the Internet. Und das ist wirklich eine extrem gute Metapher für das Ganze. Also was er damit meint, ist, alle kennen JPEGs, Bilder im Internet und gerade wenn man welche mit sehr, sehr geringer Qualität hat, dann sehen die halt nicht mehr so gut aus wie das Original. Da sind halt so Artefakte drin, die sind so Block. Ja, und man erkennt schon, was es ungefähr sein soll. Man sagt, es ist eine lossy Compression. Also es ist eine verlustbehaftete Kompression. Man verliert ein bisschen Daten, aber es ist gut genug. MP3 ist auch eine verlustbehaftete Kompression. Man schmeißt ein bisschen was weg, aber es ist gut genug. Und er sagt, naja, eigentlich ist ChatGPT und diese ganzen anderen Generatoren für andere Kontexte, bleiben wir bei Chat-GPT, weil es so leicht ist, ist genau das. Man nimmt halt allen Text, den man findet, im Internet bis zu einem bestimmten Zeitpunkt. Man massiert das ein bisschen, damit es grundsätzlich funktioniert. Man schmeißt vielleicht Daily Stormer raus, obwohl Open Air, ich schmeiße es nicht raus, weil who cares? Und jetzt lernt man einfach die statistischen Wahrscheinlichkeiten. Dieses ganze Zeug basiert auf einem Paper, das Google-Forscher 2000, müsste ich nachgucken, 14 oder so veröffentlicht haben. Und das heißt Tension, it's all about attention oder so heißt es. Ich kann es euch nachher nochmal schicken für die Shownotes, wenn ihr sowas habt. Was sie halt rausgefunden haben, ist diese neuronalen Netze. Man kann da so ein mathematisches Modell von Aufmerksamkeit benutzen. Machen noch einen kurzen Sprung zurück, um einen anderen Begriff einzuführen, der vielleicht das Ganze technisch nochmal ein bisschen. Es gibt ein mathematisches Verfahren, das nennt man Markov-Ketten. Was Markov-Ketten sind, du bist in einem Zustand und die können auf Basis des aktuellen Zustands den nächsten generieren. Es gab früher eine Zeit lang, da hatten alle auf Twitter so ein Bot, der quasi sie selber sprach. Das war nur so Tiefstrich-E-Books-Accounts. Das waren Markov-Ketten. Das heißt, was die lernen ist in einem Korpus, auf dieses Wort hier folgt meistens das. Das heißt, wenn ich sage Mary, dann lernt das Ding, danach kommt Jane. Eigentlich immer. Bei anderen Leuten, wenn man es auf einen anderen Korpus hält, kommt nach Mary irgendwas anderes. Das lernt einfach so die Art. Das lernt auch ein bisschen, wie du sprichst und die Wahrscheinlichkeiten, wie du sprichst. Und natürlich sind die ja eingefärbt aufgrund deiner Historie, deines Dialekten. Das gab es früher. Erstens ist der Korpus, den man selber generiert, meistens so klein, dass man quasi immer dieselben Formulierungen erzeugt, weil es irgendwie zu eng ist und man so ganz enge Korridore hat. Was diese Deep-Mind-Leute damals herausgefunden haben, ist, dass man diesen Attention-Bereich mit neuronalen Netzen... weiterziehen kann. Das heißt, der muss nicht nur auf das aktuelle Mann sein Token gucken, also auf das aktuelle Wort, sondern der kann halt eben auf 50 oder 100 Worte zurückgucken und das Ganze betrachten. Und der rechnet eben nicht nur aus, ich habe jetzt gerade hier ein Hallo stehen, danach kommt ein liebe Leute und so weiter, sondern der kann auf den Gesamtkontext gucken und dadurch bessere Vorhersagen machen, wie das nächste Wort aussehen. Deshalb vergisst er halt quasi auch nicht, was er vor mehreren Worten gesagt hat. Eine Markovkette weiß das dann nicht mehr. Die guckt nur, okay, jetzt ist das nächste Wort das, jetzt ist das nächste Wort das. Und das ist eine extrem große Innovation. Dass man irgendwie schaffen kann, dass man das, worauf dieses Statistikprogramm guckt, dass man das größer zieht. Und das haben sie jetzt bei OpenAI noch weitergetrieben. Im Prinzip ist das immer die große Innovation, die die nächsten Versionen machen. Dass sie A, mehr Korpus reinschieben und b, dass sie diese Attention, das, worauf das Ding vorher guckt, größer ziehen können und dadurch natürlich auch bestimmte Patterns besser erkennen können, als sie das sonst könnten. Wenn ich halt nur auf die letzten zehn Worte gucke, dann erkenne ich vielleicht gar nicht, dass jemand mich eigentlich gefragt hätte, dass er Code haben möchte. Wenn ich das aber noch mit drin habe, dann bin ich natürlich in die richtige Richtung geleitet. Und was ich aber an der Stelle tue, um auf dieses Compression of the Internet zurückzukommen, was ich halt in dieses Statistiksystem reinpacke, ist, diese neuronalen Netze, die arbeiten nur mit Zahlen. Das heißt, man nimmt halt alle Worte, die man hat, man macht daraus, man ist so Vektoren, man ordnet die quasi so Zahlen zu und auf diesen Vektoren und diesen Zahlen, da kann man sich jetzt drin bewegen über statistische Verfahren in diesen neuronalen Netzen. Die arbeiten einfach vor sich hin und dann generieren sie halt, das ist jetzt der Wahrscheinlichste. Und wenn man das dann rückübersetzt, wird da wieder ein Wort draus und dann kommt dann ein Wort aus und dann macht er das wieder und wieder und wieder. Und das sind einfach riesige, riesige Mengen statistischer Gleichungen, die immer, also die kleinen Neuronen, die machen super triviale Berechnungen. Die gucken halt, was in sie reingeht, dann addieren die das auf und entweder ist der Wert hoch genug oder nicht und dann geben sie halt einen Impuls raus oder nicht. Das macht man aber Millionen, Milliarden Mal. Und das erzeugt dann irgendwie eine statistische Wahrscheinlichkeit, der der nächste Vektor ist. Das Ding gibt dir zwar ein Wort zurück, aber wenn du halt auf die nackten Daten guckst, dann gibt dir das halt einen Satz zurück und sagst, naja, der wahrscheinlichste Vektor ist das, der zweitwahrscheinlichste ist das, der drittwahrscheinlichste ist das und so weiter mit einer gewissen Wahrscheinlichkeit. Und daher, das sind nur Statistiksysteme, die halt auf Dinge zurückgreifen können, die sie mal gesehen haben. Was das Ding natürlich nicht lernt, ist wie eine Markov-Kette auf Mary folgt Jane, sondern die sehen halt grundsätzliche Patterns auf eine gewisse Art und Weise. Also man kann halt durch diese Vektorisierung, wodurch auch schon ein gewisser Abstraktionsgrad erzeugt wird, bilden sich bestimmte Strukturen ab. Also merkt, okay, da sind Namen und auf Namen folgt üblicherweise sowas. Ohne dass das da explizit als Regel geschrieben würde. Aber das sind so so, das ist jetzt eine Metapher. Also auf dieser rationalen Ebene liegen die Regeln da nicht drin. Das sind wirklich viel abstraktere, sich bildende, statistische Strukturen, aber so etwas ähnliches würde man da drin finden. Kann das Ding genau das tun, was es gesehen hat? Und deshalb sehen diese Dinge halt auch so ähnlich aus. Deshalb sieht halt, wenn ich ChatGPT nach einer Person frage, deshalb sieht das aus wie ein Wikipedia-Antrag. Weil das Ding halt sehr viele Wikipedia-basierende oder Wikipedia-Einträge über Personen reingeschlürfen. Wenn jemand an der Person fragt, ist das die Antwort? Und wenn das die Antwort ist, dann hat das dieses Format X wurde geboren am in, arbeitet, das sieht dann immer gleich aus. Das sieht man interessanterweise, wo man es vielleicht noch besser verstehen kann, wenn man sowas wie Midjourney oder sowas benutzt und man schreibt nicht explizit dazu, mach mir dieses Bild im Stil von Pablo Picasso, was auch immer man versucht da nachzuahmen, sondern man sagt einfach, generiere mir mal ein Bild dazu. Dann gibt es so eine gewisse Ästhetik, die die Dinger immer haben. Das ist so ein bloomy, glossy Style, den das Ding irgendwie als Standard gelernt hat. Und da siehst du halt auch, wo das Ding seine Bilder her hat. Die haben mal Deviant Art, was so eine Seite ist, bei der digitale Künstler in ihr Zeug hochladen, haben die halt reingeschlüft und da ist das ein extrem dominanter Stil. Das erkennst du sofort. Du siehst die Dinger und weißt, ja, das ist, entweder habe ich das auf Deviant Art gesehen oder jemand hat Deviant Art kopiert. Das ist im Prinzip diese Form von lossy Compression of the Internet. Das haben wir da für Sprache drin, das haben wir für Bilder drin, das haben wir für alles da drin. Das kann alles, was es in irgendeiner Form gesehen hat, reproduzieren. Und nicht im Sinne von perfekt reproduzieren, dann wäre es ja keine lossy Compression, keine Verlustbehaftete, sondern wäre es einfach eine Kompression. Nee, sie ist verlustbehaftet, was dazu sorgt, dass das Ding kreativ aussieht, weil es erzeugt ja irgendetwas, was ungefähr so aussieht, wie es vorher hatte. Diese Artefakte im JPEG, diese Bekanten, in Sprache sieht das dazu aus, dass es eben nicht der Satz ist, den du vorher gelesen hast, sondern ein Satz ist, der ungefähr so aussieht, wie der, den das Ding mal gelesen hat. Das heißt, die Kreativität kommt eigentlich dadurch, dass du halt eine verlustbehaftete Kompression durchgeführt hast. Auf einem sehr abstrakten Level. Aber um deine Ursprungsfrage auf eine extrem langwierige und umständliche Art zu beantworten, ja, das sind Statistiksysteme und ja, die können, nein, ich muss mich korrigieren. Nein, natürlich, die können alles. Weil dem Ding ist ja egal, was es sagt. Es generiert halt Tokens. Wenn du jetzt sagen würdest, das Ding soll nur Wahrheiten generieren, würdest du sagen, naja, es kann du das generieren, was es gesehen hat, weil da könntest du immer sagen, okay, das habe ich daher, das ist meine Quelle dafür, deshalb stimmt das. Das Ding generiert einfach nur Tokens. Und wir wissen bei, gerade bei ChatGPT, das generiert dir halt auch mit der größten, jemand nannte es mal Mansplaining as a Service. So das Ding hat halt keine Ahnung von irgendwas, aber sitzt breitbeinig und behauptet, die Wahrheit zu kennen. Genauso geht das Ding halt vor. Und das ist jetzt ein bisschen besser geworden, weil sie halt manuell so Schranken eingezogen haben. Sie generieren halt keine URLs mehr, die es nicht gibt. Das filtern sie halt raus und generieren halt nochmal, bis sie halt eine finden, die es wirklich gibt. Aber das Ding kann auf alles reagieren, weil ihm egal ist, was es sagt. Es generiert halt Struktur, es hat ja kein Konzept davon, was es tut. Es ist ihm egal, was es sagt, ist ja schon wieder eine Personifizierung, die komplett unangemessen ist. Das würfelt halt, ja, jetzt kommt halt ein Human, jetzt kommt halt ein Sitzt, jetzt kommt halt ein Form, jetzt kommt halt ein Mikro. Okay, whatever. Ob du vom Mikro sitzt oder nicht, ist dem Ding halt egal. Was human ist, ist ihm mir auch egal. Was Mikro ist, weiß es auch nicht. Das neuronale Netz selber generiert ein Zahlen. Und durch diese Embeddings und so weiter wird daraus dann später wieder irgendeine Form von Text generiert. Aber das Ding rechnet einfach nur rum und sagt, ja, 17, 14 Millionen und 2. Nothing means anything.
SPEAKER_01Ich hab, das ist für viele Menschen, und ich will mich da ja auch nicht rausnehmen, so mega schwer zu greifen, weil ich natürlich mit dem Maßstab, wie ich denke, wie ich Reasoning mache, also wie ich meine kognitiven Prozesse da durchgehen, wie dieses Ding auch funktioniert. Ich habe zufälligerweise, bevor auch auf dem Heimweg heute mir den Gegenwarts-Podcast angehört, da von den beiden Kollegen Foyer Tunisten von der Zeit. Die sogenannte Gegenwart, ja. Genau. Die haben auch über das Thema gesprochen. Und der Lars Weißbrot hatte ein interessantes Beispiel reingeworfen und meinte so, was damals das Jeopardy-Ding da gewonnen hat von Watson. Genau. Dort konnte man immer sehen, was waren seine Top drei Antworten, die er auf dem Schirm hatte. Das war bei irgendeiner Frage, wo es um irgendeine Autorin ging. Da war 90 Prozent war es die Autorin. Platz Nummer zwei war Syrien.
SPEAKER_00Also die Frage war quasi, welche Autorin des 20. Jahrhunderts hat mit ihrem Mann Ausgrabungen in Syrien gemacht?
SPEAKER_01Um irgendeine verschollene Stadt wiederzufinden.
SPEAKER_00Genau. Und die erste Antwort war Agatha Christi, die zweite Antwort war Syrien und die dritte Antwort war Ausgrabung.
SPEAKER_01Genau. Oder so. Und das finde ich halt voll krass. Es denkt ja nicht in den Kategorien von uns. Und das, was die beiden auch gesagt haben, so sehr man die Kollegen vielleicht kritisieren mag oder nicht, ist ja, wir Menschen machen Fehler, aber wir machen Fehler in der Kategorie. Ich will nicht sagen, random, es ist ja schon strukturiert, warum Syrien gerade dran ist, aber es hat eine ganz andere Auswahllogik. Und das macht es dann natürlich in so Diskussionen immer schwer, aus meiner Sicht zu verstehen, was sind die Grenzen von dem Teil. Weil, um es in eine Frage umzuformulieren, kann ein statistisches System so Reasoning machen, wie wir das tun? Also im Sinne von deduktiv rangehen und Sachen verstehen? Oder kann es nur aus den Wortvektoren im Grunde Wahrscheinlichkeiten ermitteln und dann ist das Ding? Aber er kann jetzt nicht sagen, naja, wenn dieser Wortvektor wahr ist und wenn dieser Wortvektor wahr ist, dann ist Y richtig. So denkt es ja gar nicht, wie ich es gerade beschreibe.
SPEAKER_02Genau, es hat einfach der Prozess ist so nicht angelegt. Das ist einfach eine andere Mechanik. Man könnte jetzt argumentieren und das gab es ja sogar auch WissenschaftlerInnen von Google, die ja viel der grundlegenden Arbeiten gemacht haben, haben ja eine Zeit lang behauptet, dass die haben halt ein Übersetzungstool gebaut, was von, also ein Netzwerk, was von vielen Sprachen in viele andere übersetzen konnte. Ich glaube, vier oder fünf hatten sie irgendwie drin und auch ganz unterschiedlich. Nicht nur Romanische, sondern romanische, indogermanische, japanische war drin, also wirklich strukturell unterschiedliche Sprachen, die sie ineinander übersetzen konnten. Die haben daraus halt einfach geschlossen, es gibt eine universale Sprache und dieses Netzwerk hat sie gefunden. Und hat die gelernt quasi.
SPEAKER_01Ja, absolut.
SPEAKER_02Was natürlich eine absurde Haltung ist an der Stelle und das ist auch wieder dieser Neoplatonismus, der da drin mitschwingt. Aber es gibt ja Leute, die behaupten, naja, in diesen implizit gelernten statistischen Strukturen ist das drin, was wir Menschen im Kopf als Reasoning durchführen. Das heißt, die haben quasi gecachedes Reasoning, wenn man sich das so vorstellen möchte. Ob man das jetzt als das Durchführen von Reasoning sieht oder nicht, hängt, glaube ich, auch ein bisschen damit zusammen, wie nihilistisch man drauf ist. Also Sam Altman, der OpenAI-Chef, sagt ja auch, ja, diese Dinge sind, bekanntes Paper sagt, nur stochastische Papageien. Die plappern halt irgendwelche Worte nach, ohne sie zu verstehen. Aber sagt, ja, Menschen sind ja auch eine stochastische Papageien. Und das ist halt eine ziemlich zynisch-nihhilistische Sicht auf die Welt und zeugt halt auch davon, dass jemand sehr wenig Respekt für seine Mitmenschen hat. Aber klar kann man sich da intellektuell auf dieses Standpunkt stellen. Wenn dann mal halt Würde des Menschen und diese ganzen Konzepte eh ein bisschen im Weg stehen, ist das natürlich bequem. Aber wenn man halt sagt, okay, wir sind keine stochastischen Papageien, sondern Dinge, die wir sagen, die unsere Mitmenschen sagen, haben eine Bedeutung für uns, weil Menschen eben nicht nur zu benutzen sind, sondern einen Wert an sich, kann man das eigentlich nicht sinnvollerweise behaupten, würde ich sagen. Aber das ist halt am Ende, weil man es halt auch nicht beweisen kann. Man kann nicht beweisen, dass Dingen, also ich kann ja auch nicht beweisen, dass ich gerade Reasoning mache. Wenn man es sich leicht macht, könnte man auch sagen, ja du plapperst halt hier nur Zeug. Und ihr werdet das in den Kommentaren eh hören von Leuten mit Laseraugen.
SPEAKER_00Das Spannende ist, ich habe vorher mir auch so ein bisschen Gedanken gemacht, so was ist eigentlich Intelligenz und da so ein bisschen quasi hin und her. Und da kommt man ja dann schnell auf dieses, kann man Sachen verstehen? Und wenn man sich dann überlegt, was ist verstehen, dann setzt das eigentlich immer ein Bewusstsein voraus und auch ein Subjekt, ne? Also quasi in Bezug zu sich selbst, dass ich sage, ich verstehe das und das könnt ihr gar nicht wissen, ob ich verstehe oder nicht. Weil das passiert in mir quasi und der Akt des Verstehens, der ist nicht extern, sondern der ist intern. Und wir können, ich glaube, nach deinen Ausführungen davon ausgehen, dass das nicht passiert, quasi in diesen Modellen, auch wenn das immer die große Angst ist quasi, aber dass es quasi ein Bewusstsein entwickelt. Aber wir haben es ja nicht mit einem Subjekt zu tun, das sich auf sich selbst beziehen kann und diesen Akt des Verstehens für sich vollziehen kann.
SPEAKER_02Das ist was, was man immer wieder sieht von Leuten, die in diesem Space unterwegs sind, das hart propagieren, ist, dass Dinge runtergekocht werden auf so eine ganz Minimalebene, damit das drauf passt. Also man sagt, menschliches Verstehen ist so ein rationales Durchdenken und bla bla bla. Das stimmt aber gar nicht. Mindestens die Hälfte von unserem Verständnis hat mit unserem Bauch zu tun. Emotionen, die wir bestimmten Wortern gegenüber haben, das ist nicht rational. Also wir sind nie rational. Wir sind manchmal rationaler als in anderen Momenten, aber was uns als Menschen ausmacht, geht immer weit drüber hinaus. Und man kann ja darüber nachweisen, dass selbst unsere, was man so Denkprozesse nennen würde, die finden nicht nur da oben in unserem Kopf statt, in diesen Neuronen, die auch viel komplexer sind als das, was diese Netzwerke da haben. Sondern unser Bauch spielt eine Rolle. Unser zentrales Nervensystem, hier hinten unsere Wirbelsäule, spielt alles eine Rolle in unseren Denkprozessen. Und von daher ist halt zu behaupten, dass, nee, guckt mal, wir haben mit so Mickey Mouse-Neuren euer Gehirn nachgebaut, mit viel weniger Neuronen, aber es ist mindestens so gut wie das. Das ist natürlich auch so eine komplett unangemessene Reduktion des Prozesses, der bei uns da ist. Aber es ist so ähnlich wie im Mitte Januar, glaube ich, ich glaube, im 16. gab es auf Twitter ein Thread von jemandem, der CTO einer Organisation, die so eine Art Chatbot für Menschen in emotionaler Krise anbietet. Das ist gar nicht so sehr Chatbots, aber du kannst aber in Kontakt treten mit Menschen. Dir geht es wirklich schlecht, du musst mit jemandem reden. Und diese Coco heißt diese US-Organisation, da kannst du halt mit jemandem sprechen. Der spricht einfach mit dir, egal was es ist. No judgment, alles anonym, guter Service. Schön, dass es sowas gibt. Was die gemacht haben, ist, weil es halt so anstrengend ist, das immer zu machen, sie haben halt von Chat-GPT oder GPT-3 damals noch die Antworten vorformulieren lassen. Und die ModeratorInnen, die da mit den Menschen sprachen, haben einfach ausgewählt. Den da, den da, den da. Das heißt so Assisted, es war zwar mal ein Mensch in the Loop, aber Antworten dann vorformuliert. Was ihnen dann ganz überraschte, war, dass wenn man den Leuten danach erzählt hatte, dass die Antworten von einer Maschine vorformuliert waren, hatte das gar keinen therapeutischen Wert mehr für sie. Ja, es geht diesem Menschen ja nicht darum, dass du genau die richtigen drei magischen Worte hintereinander sagst. Das ist nicht der Punkt. Der Punkt ist, du willst verstanden werden und gesehen werden. Du willst, dass jemand Empathie aufbringen. Du willst Verbindung zu einem Menschen aufnehmen, weil du die vielleicht gerade nicht fühlst und so weiter. Das ist nicht in den Worten. Das ist in der Tatsache, dass sich jemand die Zeit nimmt, mit dir zu sprechen. Was der sagt oder was die sagt, ist, ich will sagen, egal, aber gar nicht so wichtig an der Stelle. Aber da wurde halt gesagt, nee, nee, wir automatisieren das, weil wir können ja super Sätze vorgenerieren. Darum geht's nicht.
SPEAKER_00Jetzt weiß ich nicht, ob du eine Antwort schon vorweggenommen hast. Ich stelle sie trotzdem. Weil selbst wenn das quasi nicht Intelligenz ist, in dem Sinne von der ganzheitlichen Intelligenz eines Menschen, ne? Also jetzt mal so als Konzept, dann wäre meine Frage eigentlich gewesen, aber ist das nicht egal? Weil am Ende kriege ich halt was raus. Ich kann mich in Anführungsstrichen damit unterhalten. Ich kann mir davon helfen lassen. Gehen wir mal davon aus, quasi irgendwie Fact-Checking funktioniert noch besser. Dann wäre meine Frage gewesen, ist das nicht egal, dass es nicht wirkliche Intelligenz ist? Und jetzt hast du schon mal ein Beispiel aufgemacht, wo es durchaus nicht egal ist, dass es quasi nicht tatsächlich ein Mensch ist, aber weil es da quasi auf diese menschliche Verbindung ankommt und auf diese Anerkennung, dieses Gesehenwerden und als Mensch wahrgenommen werden. Aber in vielen anderen Bereichen frage ich mich immer, ob diese Diskussion darüber, ist das wirklich intelligent oder ist es nicht wirklich intelligent, nicht eigentlich müßig ist, weil wir es ja trotzdem nutzen. Weil am Ende ist es halt da und es hilft oder auch nicht, aber wir nutzen es.
SPEAKER_02Die Diskussion darüber, ob das jetzt Intelligenz ist oder nicht, und dann holt man 17 PhilosophInnen dazu und spricht mit denen, ich halte das für komplette Zeitverschwendung. Damit kannst du natürlich locker deinen Nachmittag zubringen und auch die ganze Woche damit zubringen, aber who cares? Für den Effekt, den diese Systeme in der Welt haben, ist das vollständig irrelevant. Die Leute an der Supportline, die lehnten ja dieses Ding nicht ab, weil es ist gar keine Intelligenz, sondern weil es nicht darum ging, dass ihnen jemand irgendwelche Sätze entgegenschleudert, sondern weil diese Kommunikation was anderes bedeutet als den Austausch von Symbolen. Sondern es hat einfach eine andere Qualität. Heute sage ich irgendwo jemand, der sagte, ja, ja, jetzt haben wir halt das Spiel Go gelöst. Diese Deep Learning-Systeme können halt Go spielen. Vorher war das schwierig, weil Go ist halt so groß, Schach geht, aber Go ist so groß. Deep Learning geht aber, Menschen können nicht mehr gegen diese Maschinen gewinnen. Du verlierst einfach so. Und für viele Leute, die halt Go sehr lieben, ist das so, ja, aber das ist doch nicht der Punkt. Der Punkt ist, Spielen ist auch immer was soziales. Go ist ein Spielen. Go ist ein japanisches Brettspiel. Auch sehr strategisch, nicht wie Schach in dieser Art von Straktem Steine auf und bla bla bla. Und extrem komplex, weil wahnsinnig viele Optionen und wahnsinnig groß. Man kann es nicht vorberechnen. Aber Deep Learning kann das gut spielen, besser als die meisten Menschen, besser als wahrscheinlich alle Menschen, schlägt jetzt auch die besten Spieler. Und für viele ist es so, ja, guck mal, wir haben Go jetzt gelöst. Aber das ist doch nicht der Punkt. Das Spiel miteinander ist nicht nur, okay, wir haben es jetzt gelöst. Das Spiel miteinander, da geht es um ganz andere Sachen an viele dahin.
SPEAKER_00Ich habe Monopoly gewonnen, jetzt muss ich es nie widerspielen.
SPEAKER_02Bei Monopoly ist das gut, aber bei vielen anderen Spielen, ich meine, das ist ja, nee, ich habe mit meinem Sohn jetzt einmal eine Lego-Feuerwehr gebaut, das müssen wir jetzt ja nie wieder machen, ist ja erledigt. Wenn ich ihm das erzähle, der beißt mich zu recht. Ich glaube, dass das an der Stelle, wenn wir halt häufig hören, ja, ja, guck mal, der kann das ja alles, dann schneiden wir ganz viele Dinge weg, die eben auch relevant sind. Ja, auf so einer ganz basischen Ebene, ja, das generiert schon Zeichen, die plausibel sind und vielleicht sogar weil man ein paar Filter eingebaut hat, ist der Code, der generiert wird, irgendwie halbwegs konsistent und er tut auch irgendwas, weil es ein kopierter Open Source Code ist, ohne die Lizenz zu beachten. Wenn ich dann über höre, das ersetzt jetzt SoftwareentwicklerInnen, ja, das kann die natürlich manchmal entlasten, weil du musst halt nicht mehr bei Stack Overflow nach Code zum Kopieren suchen, der kopiert in die jetzt direkt rein. Whatever. In der Softwareentwicklung ist ja nicht diese Zeichen zu schreiben. Das Problem der Softwareentwicklung ist, genau zu verstehen, was die Leute auf deinen Seite eigentlich brauchen und was ihr Problem ist, dafür etwas zu bauen. Das ist die eigentliche Leistung. Dieses Zeichenschubsen, es gab schon immer Templates und Vorgeneriertes, dafür benutzen wir ja diese ganzen Open Source Libraries, damit wir den ganzen Shit nicht selber schreiben müssen, sondern nur noch Stücke zusammensetzen. Das ist jetzt auch an der Stelle nichts Neues, aber es verkennt den Arbeitsprozess. Und ich finde, das an so vielen Stellen, wenn wir, um Marys Impuls aufzunehmen, wenn wir jetzt wirklich darüber sprechen, was tun diese Systeme in der Welt so. Die sind da. Die machen Dinge mit der Welt und mit unseren Arbeitsprozessen und mit der Art, wie wir miteinander kommunizieren. Was machen die da? Und an vielen Stellen fällt mir auf, dass sie völlig verkennen, worum es geht. Die machen, das war ein Mastodon-Post, ich finde die leider nicht wieder, aber jemand hat sehr schön gesagt, diese Dinger machen Cargo-Cout. Die machen das, was sie machen, nämlich nicht, weil sie verstehen, was da passiert. Sie müssen etwas erreichen und sie haben einfach nur am Output gelernt. Okay, man muss irgendwie diese Sache tun und dann ist das schon richtig, ohne ein Verständnis dafür zu haben, warum Menschen das machen. Das Ding kann dir eine E-Mail generieren, die dann eine Seite lang ist. Es weiß nicht, warum du dir manchmal die Zeit nimmst, so eine lange E-Mail zu schreiben, weil das unter Umständen eben darum geht, Respekt einer anderen Person gegenüber auszunehmen. Ich kann eine random Person anmelden und sagen, hier kommst du morgen in meinem Podcast und dann sagt ihr mir auch, ja kannst mich doch mal. Sondern man sagt ganz freundlich, guten Tag, mein Name ist. Und es geht da gar nicht um die Information. Es geht darum, was man da sozial auch kommuniziert. Es ist eine Wertschätzungsgeste oder manchmal ist es eben auch, ihr seid ja auch im Projektmanagement aktiv, manchmal muss man mit AuftraggeberInnen ja auch ein bisschen härter ins Gericht gehen, dann ist es vielleicht gerade keine Wertschätzungsgeste. All das geht halt an der Stelle weg. Ja, ich kann mir eine Seite generieren lassen, aber der Punkt, das zu tun, ist manchmal ein anderer, als einfach nur eine Seite zu haben. Ich sage damit was ganz anderes. Wenn jetzt alle immer nur noch Seiten generieren, habe ich mir jetzt diese Möglichkeit ein bisschen aus der Hand genommen. Wir machen eigentlich unser eigenes Repertoire ein bisschen ärmer an der Stelle und alle blasen das auf. Und es gab zwei Tweets, die auch sehr eng aneinander kamen. So ein Startup-Mensch sagte, ja, guck mal, ich kann mir alle meine E-Mails damit schreiben lassen. Der nächste sagt er, ja, und ich habe eine KI, die fasst mir nämlich E-Mails immer zusammen, wenn ich die kriege. Das heißt, was wir jetzt sagen ist, wir lassen die E-Mails aufblasen, auf der anderen Seite wieder zusammen komprimieren. Ich schreibe die E-Mail, ich will den Job. Daraus wird zwei Seiten anschreiben, generiert von der KI, auf der anderen Seite, eine KI komprimiert es wieder auf, he wants the job. Und dann kann jemand entscheiden, ob die Person das will. Geil. Warum machen wir diese Zwischenschritte? Das ist kokoloris. Aber natürlich wird das verändern. Demnächst wird es halt so sein, wenn du eigentlich nur ganz kurz was sagen möchtest, dann werden Leute, aber die anderen schreiben immer so lange nette E-Mails an mich. Tun sie nicht.
SPEAKER_00Ich war gestern beim Live-Podcast von den 29ern mit Wolfgang Schmidt und Stefan Schulz und quasi über das gleiche Thema wurde gesprochen und sie meinten, damit wird sich ja jetzt unfassbar viel Geld machen lassen, mit so Ratgeberliteratur quasi sich einfach so ein Buch generieren lassen und dann meinte quasi der andere direkt, ja, und dann kann jemand quasi da mit eine Rezension schreiben und dann ist ja super, weil dann muss keiner das Buch gelesen haben und dann sind alle happy. 100 Prozent.
SPEAKER_02Ich weiß nicht, ob ihr das mitgekriegt hat. Es gibt in den USA ein Science-Fiction-Magazin, das heißt Clark's World, nach Herrn Clark, der es gegründet hat. Da können nicht publizierte AutorInnen ihre Science-Fiction-Geschichten einreichen, die werden halt gereviewt und alle Nase lang kommt Magazin raus und vielleicht bist du abgewogen und sie bezahlen sogar ein bisschen was dafür. Was ist das Erste, was bei ChatGPT passierte? Irgendjemand ist aufgefallen, da kannst du einfach Storys reinschicken, wirst eventuell dafür bezahlt. Es kostet dich ja nichts davon, auch tausend zu generieren. Schickst halt 1000 rein, wenn eine bezahlt wird, hast du Geld verdient. Clarksworld musste Submissions zumachen. Die haben gesagt, ihr wisst genau warum, ist vorbei, Game Over an der Stelle. Jetzt kann man sagen, gut, ein Nischen Science Fiction, Kurzgeschichtenmagazin, gut, wenn das stirbt, ist tragisch, aber was soll's. Aber in meinem Job bin ich ja Forschungsdirektor eines Unternehmens. Also bei mir geht es viel um meinem Teil des Unternehmens, dass man eben auch sich vielleicht für Forschung Geld anwirbt. Dann schreibt man diese Anträge an Bundesministerien oder eben an die EU. Grundsätzlich ist das ja was, wir wollen das ja. Wir wollen Forschung fördern, weil wir bestimmte Dinge anschieben wollen, weil wir wollen, dass jemand uns klimaneutrale, was auch immer konstruiert, was auch immer man das machen kann. Was macht das, wenn wir die Reviewer jetzt fluten mit tausenden von Anträgen, bei denen jemand einfach nur ChatGPT schreibt was mit Nachhaltigkeit rein? Was macht das auch mit unseren Systemen, die Qualität sichern sollen, wenn wir sie halt alle nur noch fluten mit Spam? Wir denken bei Spam immer an E-Mails und an hier Website-Spam und SEO, was auch immer. Das ist auch ein Riesenproblem, natürlich. Aber wenn du jetzt plötzlich so viel Shit generieren kannst, dass JournalistInnen eigentlich auch nicht mehr in der Lage sind, so richtig durchzugucken, okay, what's what? Wenn unsere Verfahren, die darüber entscheiden sollen, wer kriegt denn vielleicht eine Geldförderung, überflutet werden mit Dingen und einfach sagen müssen, okay, winke, winke, ich bin raus. Und die einzige Lösung, die die noch haben, ist zu sagen, okay, ich kaufe mir jetzt bei Cap Gemini eine KI ein, die das für mich vorfiltert. Das ist halt absolut toxisch für unser Zusammenleben.
SPEAKER_01Ja, genau, das weiß ich.
SPEAKER_02Und jetzt kann man sagen, gut, Entschuldigung, jetzt kann man natürlich sagen, gut, das zeigt halt, dass der Prozess, den wir ursprünglich schon gemacht haben, wahrscheinlich auch ein bisschen Bullshit ist. Völlig richtig. Völlig richtig. Wenn Leute mal sagen, ja, jetzt können wir ja gar nicht mehr unsere blöden Aufgaben in der Schule stellen. Ja, die Aufgaben waren schon immer blöd. Und die müssen auch weg. Hör mal der Scheiße auf. Warum zwingen wir Kinder, dumme Sachen zu machen, nur weil man es einfach korrigieren kann oder einfach bewerten kann? Ja, hör auf damit. Wenn das aus diesen ganzen Textgeneratoren kommt, bin ich ja sehr happy. Das ist ein super Outcome. Vielleicht können wir diese ganzen Notengeschichte einfach abschaffen und die Kinder können wir lernen und Sachen machen. Wäre auch cool. Aber jetzt in der Welt, in der wir jetzt gerade sind, da haben wir Strukturen, die eben Kontrollinstanzen für eben bestimmte politische, ökonomische Prozesse, wie auch immer, sind und die kann man extrem leicht jetzt fluten. Und wir haben keine Ahnung, was wir damit machen sollen. Überhaupt nicht.
SPEAKER_01Also ich bin absolut dabei, was du sagst. Ich glaube, dass viele Dinge, die wir heute Chat-GPT zuschreiben, ist eher für mich so ein Ding, wo ich sage, naja, eigentlich zeigt es, wie dumm das System war. Also wenn Leute Nachrichten darüber schreiben, dass keine Ahnung, der Wharton MBA Eintrittsexam, das zu den Top 1% gehört, so habe ich gesagt, naja, zeig ja, dass das Exam-Ding irgendwie dumm war. Dass wenn ein Muster orientiertes Ding einfach nur Sachen reproduziert, er zu den Top 1% gehört.
SPEAKER_00Ist auch nicht verwunderlich, ne? Also gerade bei diesen Arten von Prüfungen, die eher alle Multiple Choice sind, die.
SPEAKER_01Ja, dann noch MBA-Kram und so.
SPEAKER_02Die Lösungen stehen halt auch im Internet. Stell dir vor, du hast das Buch, in dem die Lösung für die Prüfung stehen und unendlich Zeit. Ja, natürlich bekommst du ein sehr gutes Ergebnis. Wow. Much surprised.
SPEAKER_01Ja, genau. Also es ist nicht wirklich überraschend, ja. Wer hätte gedacht, dass einmal eins rechnen mit einem Taschenrechner einfacher ist als ohne.
SPEAKER_02Ja. Captain Ob wir ist halt angerufen, man möchte seine Erkenntnis zurück. Aber das ist natürlich eine komische Diskussion, in der wir da so gelandet sind. Ich finde es ja auch wirklich gut, dass uns das zwingt, bestimmte Prozesse, die wir haben, nochmal zu durchdenken. Und insbesondere in der Bildung gibt es da wahnsinnig viel, was man sich mal mit Verstand angucken muss und bei dem man sich auch die Frage stellen muss, warum machen wir das eigentlich? Aber auf der anderen Seite sieht man natürlich auch, manchmal haben wir diese blöden Prüfungen wie The Bar-Examen für irgendwelche Anwälte und Anwältinnen oder auch medizinische Tests. Wir wissen, dass das, was da getestet ist, nicht das ist, was die Leute später tun. Wir haben aber eigentlich keine Möglichkeit, das zu testen, was sie später tun müssen. Es ist halt the next best thing. Deshalb machen wir das so. Und das heißt nicht, dass das gut ist und vielleicht gibt es auch noch bessere Varianten als wir haben, die sind halt convenient und die skalieren ganz gut. Klausuren schreiben mit auswendig gelerntem Wissen skaliert verhältnismäßig gut. Das skaliert auch in der Korrektur verhältnismäßig gut. Das kriegen wir irgendwie abgedeckt, sonst muss ja jemand eine mündliche Prüfung mit einer Person führen und das ist ja, Geld haben wir ja nicht, so ungefähr. Das ergibt schon in bestimmterlei Hinsicht Sinn an einer gewissen Logik der Optimierung und der Reduktion von Geldausgaben, dass man diese Prüfung eingeführt hat. Aber was die Dinge uns halt wirklich zeigen, ist, die Tatsache, dass wir nicht testen, was wir wollen und die Art, wie wir die Dinge testen, macht es sehr einfach für solche Statistiksysteme zu gewinnen. Und das Problem ist gar nicht, dass die jetzt diese Tests bestehen, ja, ach, dummer Test und sie haben die Lösung, wow. Das Problem ist, dass daraus jetzt konstruiert wird, guck mal, wir brauchen gar keine Anwälte, wir lassen uns das jetzt generieren. Das ist ein bisschen, wenn man seinen eigenen Bullshit glaubt. Ich arbeite ja im Agenturbusiness, da muss oder auch im Antragsbusiness so ein bisschen bullshitten muss man halt. Man muss so ein bisschen, und man muss aber auch immer wissen, ab wo hast du gebullshittet. Wo war es so ein bisschen dick aufgetragen und was ist das Wirkliche, was du meintest? Wenn du das nicht mehr weißt, hast du ein Problem. Das ist genau die Situation, die wir uns da gebracht haben. Sie haben diese Tests gebaut und alle haben sich angeguckt gedacht, ja, das ist schon okay. Damit wissen wir dann, dass die Leute qualifiziert sind, obwohl wir alle wissen, dass es eigentlich nicht testet. Und wir alle kennen Leute, die für so einen Test auswendig gelernt haben und die eigentlich nichts wussten. Wir haben alle mit denen studiert. Also ich kannte auch jemanden, der könnte in keiner Programmiersprachewelt einen Zeile Code schreiben, der hat von Informatik keine Ahnung, hat auch ein Diplom gekriegt, der hat halt einfach ein Vokabelheft. Der konnte super diese Vokabeln runternudeln. Der hat das halt darauf optimiert. Im Prinzip wurde das eine frühe Form von Chat-TB. Aber okay, wir haben nichts Besseres, also haben wir uns darauf geeinigt, gut, das ist der Bullshit, mit dem wir leben können. Und im Umzugsschluss schaffen wir es nicht mehr zu raffen, dass wir uns damals schon Bullshit erzählt haben. Jetzt glauben wir unseren eigenen Bullshit und sagen, ja gut, wenn das diese Dinge, dann ist es auch intelligent und es ist auch kompetent und es ist so gut wie wir. Das ist auch so ein bisschen so eine infantile Haltung. Also wir infantilisieren uns auch selber so ein bisschen, weil wir gar nicht mehr versuchen zu verstehen, was passiert da eigentlich und warum passiert das, sondern das ist so convenient. Ja, okay, der hat den Zettel, dann passt das schon. Aber das ist doch nicht, der Zettel ist ja nicht das, worum es uns geht.
SPEAKER_01Das, was du da ist so ein bisschen auch das, was mich gerade so bei diesem Thema ziemlich umtreibt. Wie gesagt, auf der einen Seite denke ich mir so, ja cool, dann muss jetzt nicht eine andere Person meine E-Mails-Korrektur lesen. Man soll das Ding machen. So, easy. Aber keine Ahnung, so sinnlosen Kram kann man da jetzt reinpacken. Wobei, ich habe auch gemerkt, das ist nicht immer perfekt. Aber egal. Um es mal eine Positivnote zu sehen, ist, ich merke, dass bei diesen Dingern das Problem zu verstehen viel wichtiger geworden ist. Das ist zumindest eine Sache, wo ich merke, ich bin ja auch Dozent an einer Hochschule, dass auch diese Hochschulen so stark auf ein Wissen abfragen und irgendwie Sachen herleiten, dass die Leute noch nicht mal mehr wissen, warum ist dieses Wissen für was relevant. Aus meiner Sicht so ein bisschen produktiver mit ChatGPT arbeiten will, ist die Frage, das konkrete Problem, das spezifische Problem, sogar Fachwissen da drin zu haben, um zu, um da, ne, da kommen wir zu diesen Prompts, bei einem bekannten Themengebiet, das ist nämlich sehr wichtig, dass man dazu was kommt, schon nicht uninteressant. Aber eine Sache, die mich so ein bisschen manchmal in den Diskussionen so ein bisschen unklar lässt, ist, was ist die Grenze? Da ist, ich sag mal, in Anführungsstrichen meine Sorge, wir bei, also Mary und ich arbeiten ja in diesem Organisationskontext. Und spezifisch, wir arbeiten oft auf Themen, wo es eben nicht das Buch gibt zu dem Thema. Da ist noch nicht die Abhandlung, die final geschrieben wurde, wie man das umsetzt. Und wir beide uns oft Gedanken machen, okay, was, wenn wir uns diese organisationelle Realität nehmen, aber was, wenn wir gewisse Vorbedingungen ändern und dann gewisse Sachen dahinter strukturieren? Und ich habe diese Dinger schon versucht, da hilft mir ChatGPT null, weil dazu gibt es einfach kaum Texte. Es gibt so Leute, die haben vielleicht so ein bisschen organisationelle Erfahrung, die haben das mal bei sich in einer Firma versucht, aber die haben das nie kodifiziert oder so. Und da, dann ist für mich ja immer so, aber da ist auch voll die Grenze. Das Ding kann ja da nicht mehr weitergehen, weil niemand ihm irgendwas gegeben hat. Und da war so ein bisschen dieser Diskurs, aber müsste es da nicht reasonen, also sozusagen selbst diese kognitive Leistung bringen, dass, wenn du doch diese Vorbedingung weglässt, müsstest du nicht dann zu einer anderen Erkenntnis kommen. Und mein Ding ist, nee, das kann es einfach nicht, weil es diesen Input nicht hat. Aber jetzt kommt sozusagen die große Sorge, wenn es mal ein bisschen übertreibt, ich könnte mir schon vorstellen, dass wir irgendwann mal zu einem interessanten Kunden eingeladen werden, er uns so ein paar Sachen fragt, die sagen, naja guck mal, dies und das, und so könnte man sich das so vorstellen und der ist gleichzeitig Chat-GPT fragt und sagt so, naja, das geht ja gar nicht oder so. Und wir sagen, naja, nur weil er sagt, es geht nicht, heißt es ja nicht, dass es nicht wirklich geht. Ich hatte schon tatsächlich Situationen gehabt, wo Leute mir gesagt haben, ja, aber Chat-GPT sagt, dass es so und so ist. Und ich denke mir so, aber das Ding kann das ja nicht immer alles wissen. Und da bin ich mir nicht so ganz sicher, wo die Leute wirklich wissen, wo die Grenze ist von dem Thema. Die wissen es nicht.
SPEAKER_00Und da ist auch ein bisschen die Frage mit Medienkompetenz. Also das ist ein super neues Phänomen, ne?
SPEAKER_01Es gibt alte, nicht immer die medienkompetenten Menschen oft an neuralgischen Punkten der Entscheidung dafür.
SPEAKER_00Und wenn dir das quasi so eine Information gibt und dann kann es dir aber ja nicht mal, also es kann dir ja keine Quellen geben. Das heißt, du kannst es nicht prüfen, was da steht. Es ist ja nicht, dass ich sage, ah, das ist das, okay, und ich verarbeite das jetzt und bereite diese Information auf, sondern ich mache ja quasi Wörter aneinander rein oder halt Sätze aneinander rein, die dann Sinn ergeben irgendwie, wenn sich da vielleicht noch ein bisschen zurückhalten müsste. Aber sorry.
SPEAKER_02Kevin Roos, der New York Times Tech-Columnist, der noch keinen Hype gefunden hat, auf der er nicht auch aufgesprungen ist, aber das ist eine andere Geschichte. Erst schrieb er ganz glowing Reviews von ChatGPT, unglaublich, was es kann, wahnsinnig. Und da ist die Intelligenz drin. Und dann schrieb er die nächste Kolumne, dass er mit dem Ding sprach und das Ding hätte irgendwie, er hätte sich voll erschrocken, weil das Ding hätte irgendwie quasi mit ihm eine Affäre anfangen wollen und hat ihm erzählt, er solle seine Frau umbringen. So Geschichten. Das Thema ist so neu. Das soziale Immunsystem, das kognitive Immunsystem unserer Gesellschaft, der Journalismus, verkackt das gerade auf breiter Fläche. Weil ganz viel da einfach, guck mal, ich habe hier einen Text mit ChatGPT schreiben lassen, ist denn nicht schön? Und guck mal, ich habe hier und ChatGPT und es wird nur gezeigt, was das alles kann. Guck mal, es generiert Code, guck mal, das generiert Texte, guck mal, das kann das und das beantworten. Guck mal, es schafft alle diese Tests zu bestehen, ohne mal dahinter zu gucken. Und wie soll da eine Person, die halt nicht den ganzen Tag Zeit hat, sich mit diesem Shit zu beschäftigen, die hört nur, es gibt diese KI und da ist KI auch ein wichtiges Meme. Guck mal, seine Intelligenz. Und Microsoft hat die gemacht. Guck mal, Microsoft ist eine der größten Firma auf der Welt. Die bauen das jetzt überall ein und die sagen, das beantwortet meine Fragen. Warum soll ich denen natürlich nicht glauben? Natürlich generiert das ab jetzt die Wahrheit. Dass die Wahrheit nicht mehr mit dieser Welt korreliert, das ist jetzt ärgerlich. Aber okay, Wahrheit ist halt ab jetzt das. Du musst ab jetzt halt deine Realität ChatGPT anpassen. Tut mir leid. Das macht jetzt natürlich eure Arbeit auch ein bisschen schwieriger, aber das ist leider gerade die Situation, in der wir sind. Natürlich wird dann drüber geguckt, mal Chat-GPT hat hier gelogen, aber da gibt es immer Chat-GPT, jetzt gibt es Version 4. Da haben sie dann halt irgendwie eine Sperre eingebaut. Das macht sie jetzt halt nicht mehr. Und beim nächsten Mal nimmt sie wieder irgendeinen Fehlerfall raus. Und du kannst es immer irgendwie hintricksen, aber diese subtilen Fehler, die drin sind, die vielleicht gar nicht so offensichtlich sind, wer sollen das raffen. Es gab ja auch wirklich in den letzten Wochen so viele Cases, wo Leute irgendwie, Dave Carb, ein Wired-Autor und Professor, neulich schrieb ihnen ein Studi an, ob er eine Kopie des Papers, bla bla bla, in dem und dem Band hätte. Da sei er drin zitiert und es sei irgendwie, das würde er nicht finden. Und Dave Carb selber sagt so, echt, ich schreibe viele Paper, manchmal kann man sich die an die auch nicht mehr erinnern, weil einige sind auch so ein bisschen, naja, whatever. Und er fand das Ding nirgendwo, fand er, okay, wo hast denn das her? Und der Typ schickte ihm halt einen Link und dieser Link existierte nicht, 404. Und der Student hörte dann irgendwann auf zu antworten und es ist verhältnismäßig klar, der hat einfach Chat-GPT gefragt, okay, wer hat dazu geschrieben? Chat-GPT hat halt ein Paper erfunden, was es nicht gibt, was ungefähr beim Themenkomplex sein könnte und er schrieb halt den Autor an. An sich hat er alles richtig gemacht. Voll medienkompetent. Chat-GPT hat gesagt, das ist die richtige Person, er hat die angeschrieben, gut, die Person konnte nicht liefern. Ob dieser Studie jetzt in seinem Text trotzdem Dave Cobbs Paper zitiert hat oder nicht, wissen wir nicht. Aber faktisch bringen die Leute in genau diese Situation. Das Ding generiert, es sieht super wahr aus, perfekte Oberfläche, da steht nirgendwo dran, use with caution oder sowas. Das ist nur, gab ein und es gibt dir Antworten. Und wenn du irgendwo dich durchklickst und dich lange damit beschäftigst, verstehst du vielleicht und es ist nur Statistik. Wenn du das als normale Person nutzt, dann wird dir nur erzählt, das kann alles, das weiß alles, das hat alle Daten, es ist intelligent und es kommt von einer der größten Firmen auf der Welt. Und alle anderen Firmen, die großen Firmen auf der Welt, bauen sowas auch gerade. Offensichtlich ist das wahr. Offensichtlich ist das die Wahrheit.
SPEAKER_01Sag mal, ist das die, ich sag mal, quote und quot, radikale Innovation von ChatGPT, dass der einfach einen Text produziert, der plausibel klingt, aber der einfach halt nicht stichhaltig ist?
SPEAKER_02Das macht ja auch Markov-Ketten. Das Problem ist, du generierst halt Symbole, Tokens, Zeichen, Ketten aus irgendwas. Zufällig sind das Worte einer menschlichen Sprache, müssten es jetzt auch nicht sein. Sowas wie Wahrheit oder Unwahrheit gibt es halt nicht. Plausibilität ist ein statistischer Seiteneffekt. Die Dinger sehen plausibel aus, weil menschliche Sprache halt Strukturen hat, die in den Statistiken liegen, deshalb sieht das plausibel aus, was da rauskommt. Und durch diese Attention nimmst du immer dieselben Begriffe wieder auf und dadurch landest du so in Pfaden, die Sinn ergeben. Ich will das nicht als Innovation nehmen, weil wir das halt schon immer konnten.
SPEAKER_01Ich frage mich ja schon mal, Siri, also wenn wir Siri als Beispiel nehmen, der hat mir ja viel öfter gesagt, weiß ich nicht, um es mal so vereinfacht zu sagen. So, keine Ahnung, Google mal, war ja sozusagen die meiste Antwort von Siri. Und ich habe irgendwie das Gefühl bei ChatGPT, der erzählt mir immer eine Story und irgendwie versucht, es sich selbst gleichzeitig zu fact-checken, ob diese Story wahr ist, so mehr oder weniger.
SPEAKER_02Mittlerweile ein bisschen. Bestimmte Dinge werfen sie raus und du merkst ja auch, wenn du bestimmte Dinge eben als Auftrag gibst, dann schlägst du sofort einen Filter, bevor es auf dieses generative Netzwerk stößt, dann kriegst du immer so eine Standardantwort zurück. Nee, das geht nicht oder das mache ich nicht oder so.
SPEAKER_00Entschuldigung, ich bin kein Anwalt.
SPEAKER_02Genau. Er trifft nämlich das Ding genau nicht das Netz, sondern davor setzt du halt so diese Filter, damit du halt nicht sagen kannst, erkläre mal bitte, warum Hitler recht hatte. Das hat er halt gefiltert, okay, ja, die schmeißen wir weg, weil das wollen wir alles nicht. Aber das Ding dahinter würde dir erklären, warum Hitler recht hatte. Da hat das Netz ja überhaupt kein Problem mit. Das ist dem komplett egal. Ich würde es aber nicht als die große Innovation sehen. Das Phänomen ist ja alt. Also das Phänomen ist wirklich extrem alt. Das hat Harry Frankfurt, ein US-Philosoph, schon mal beschrieben. Und zwar, es gibt einen Namen für einen Sprechakt, der nur auf Plausibilität ausgelegt ist, komplett ohne Betrachtung der Wahrheit. Es ist egal, ob es wahr ist oder nicht. Es geht nur um Plausibilität. Das ist offensichtlich keine Lüge, weil bei der Lüge geht es darum, nicht die Wahrheit zu sagen. Es ist auch nicht Wahrheit zu sagen, weil darum geht es die Wahrheit zu sagen. Wenn die Wahrheit komplett egal ist, dann nennt Harry Frankfurt das Bullshit. Das ist die philosophische Definition von Bullshit. Der erste, in dem er das definiert hat, heißt on Bullshit. Das ist ein altes Phänomen. On Bullshit. Und wir kennen alle auch Leute, die so reden.
SPEAKER_01Das Buch muss ich mal bestellen.
SPEAKER_02Genau. Die arbeiten bei McKinsey und verdienen halt das Doppelte von dir. So.
SPEAKER_01Berater nennt man sie. 100 Prozent. Ich finde, ChatGPT ist voll der Berater. Deswegen funktioniert ChatGPT so krass auf LinkedIn. Es ist so seichte Oberfläche, so ein bisschen Bullshitten und so, es bleibt immer so ein, warte, warte, erklär mir das mal nochmal. Und dann kommt die nächste Ebene von Bullshit. Es ist so, der Berater, wenn das Ding Slides bauen könnte, wären 80 Prozent der Berater morgen so, was machen die den ganzen Tag?
SPEAKER_00Guck mal, ich habe mich vorher gefragt, als wir über Intelligenz gesprochen haben.
SPEAKER_02Ob Berater intelligent sind. Frage ich mich jeden Morgen.
SPEAKER_00Ob man quasi, weil man ja sagt, irgendwie, man setzt eigentlich ja so sehr auf Statistik als Intelligenzbegriff, quasi also auf diese analytische Sache, ob das nicht sehr stark von diesem positivistischen Wissenschaftsbild kommt, dass man sagt, Analytisches, was sich in Zahlen abbilden kann und so weiter. Und erhebbares.
SPEAKER_01Nicht nur analytisch, also auch, ich glaube noch viel wichtiger, ist im Grunde, diese Theorie ist egal, was zählt, ist das, was wir messen. Nur Empirie. Das ist ja in der BWL voll der heiße Scheiß. In den Wirtschaftswissenschaften geht ja sehr stark der Trend. Die wirtschaftswissenschaftliche Theorie ist doch eigentlich irrelevant. Wir können ja alles mit statistischen Modellen sehen, wie ja, was los ist.
SPEAKER_00Genau. Also wir wissen, das Bild natürlich totale Gefahren, weil wenn man so tut, als ob da keine Theorie dahinter steckt, ist ja die Auswahl der Daten zum Beispiel schon mal ein manipulativer Akt. Allein das schon ist was. Und jetzt können wir ja hingehen und sagen, ja, okay, Biases und so, blöd, aber wenn wir das quasi eine Maschine berechnen lassen, die alle Daten auf der Welt hat, weil alles ist im Internet, dann ist die ja intelligenter als wir und kann das deswegen besser. Und da sind wir ja quasi so gelandet, okay, die macht das dann magisch und wie sie das macht, keine Ahnung. Aber jetzt haben wir eigentlich dann einen Bruch damit, weil ja quasi das, was ja ChatGPT macht, ist ja nicht die Daten der Welt erheben und die quasi analysieren und dir dann Analyse geben, sondern die statistische Berechnung ist ja nur, was ist plausibel? Also das, was du gerade meinst, eigentlich generiertes Bullshit und damit ja nicht mal eigentlich Empirie, sondern nicht mal das, aber es basiert trotzdem darauf. Und jetzt frage ich mich, bedeutet das im Umkehrschluss, weil wir auch von diesen Qualitätsgates gesprochen haben, wie du vorher meintest, nur wenn dann ein Antrag geprüft wird, dann guckt man sich den ja an und diese Qualitätsgates werden überflutet. Braucht man dann jetzt quasi mehr vom Fact-Checking, aber ist das dann nicht noch mehr verstärkend in dieses Problem, dass man dann nur auf das, was als Fakt in der Welt überhaupt da ist? Weil ich meine, ein Argument ist nicht ein Fakt. Ein Argument ist nicht in der Welt messbar. Und das kann ich ja dann schon mal nicht mal wieder überprüfen und ob das nicht so eine Spirale eigentlich gerade lustritt oder Wishlängs drin sind. Vielleicht waren das zu viele Gedanken.
SPEAKER_02Nee, überhaupt nicht. Die einzige Verteidigungslinie, die wir dagegen haben werden, die skaliert, wird halt sein, okay, ich lege dagegen halt jetzt meine Faktendatenbank und gucke, ob das dem entspricht und so weiter. Das sind wieder Dinge, die gemessen wurden. Und was gemessen wird, ist, wir tun immer so, als seien Daten neutral, aber wir wissen auch alle, the map isn't the territory, also natürlich sind Daten nie neutral. Es gibt diese View from nowhere, wo alles objektiv ist, existiert nicht. Was wir tun, ist immer subjektiv, zu einem gewissen Teil. Es ist immer gefärbt durch unsere Erfahrung, durch das, was wir nicht sehen können, durch die Personen, mit denen wir nicht gesprochen haben, die außerhalb unseres Erfahrungsbereichs sind. Aber ja, wir müssten halt grundsätzlich um dieser Flutwelle aus Bullshit, die auf uns zurollt. In vielerlei Hinsicht. Und im bestimmten Bereich ist es egal, ob ich mir jetzt Rezeptwebseiten, diese zwei Seiten vor dem Rezept, in der immer nur Scheiße steht, damit man das Ding nicht kopieren darf. Ob das jetzt durch sowas generiert wird oder nicht, ist auch egal. Doesn't matter. Das ist völlig irrelevant. Aber um dem was entgegenzusetzen, zeigt es halt wieder, wie kaputt eben auch schon unsere grundsätzliche Ideologie ist. Diese, nur was wir messen können, zählt. Nur was wir in Geld ausdrücken können, können wir auch bewerten. Also es ist ja heute auch extrem schwer, überhaupt im politischen Diskurs über etwas zu reden, wenn man es nicht in Geld ausdrücken kann. Wenn ich sagen kann, ich finde das ist wichtig, dann muss ich immer, nicht nur im politischen, sogar auch im Wirtschaftlichen, Diversity ist wichtig, weil diverse Teams sind produktiver. Es ist nicht, weil Diskriminierung einfach scheiße ist und das muss weg, weil Menschen ein Recht darauf haben, nicht diskriminiert zu werden. Wir müssen immer sagen, ja nee, wenn wir auch Frauen in Teams gehen, dann sind die produktiver. Das ist das Argument. Das Argument ist nicht, Frauen haben ein Recht, nicht diskriminiert zu werden. Formal dann schon irgendwie, aber wenn du wirklich überzeugen willst, musst du es immer aufs Geld runterbrechen. Wenn es um Rassismus geht, dann musst du irgendwie vorrechnen, ja, die Nazis zünden dann so viele Heime an, das kostet auch viel Geld und die Polizei. Auf dieser Ebene müssen wir Dinge verhandeln. Es ist immer auf diese Ebenen runterbrechen, anstelle über Werte zu reden. Und natürlich kann man eben auch diesen Impuls, so ähnlich wie wir gerade schon sagten, wenn die Bildung radikal verändert und sagt, was ist eigentlich der Wert von Bildung? Und der Wert von Bildung ist eben nicht, Leute dazu zu zwingen, random Shit auswendig zu lernen und auf den Zettel zu erbrechen irgendwie morgens, sondern eigentlich hat Bildung eben ganz andere Werte und das ist neben der Vermittlung von Informationen auch eben die Vermittlung von Kompetenzen, soziale Integration, außerdem ist Bildung ein Recht von Menschen, also muss da auch gar nichts rauskommen, sondern Menschen haben einfach ein Recht, daran teilzuhaben und sich darin zu entwickeln. Wenn wir das auf andere Stellen anwenden, wäre das natürlich ein schöner Impuls. Ich sehe noch nicht, wie diese radikale Änderung unserer gesamten kulturellen Logik passieren soll. Denn wir haben unsere Kultur komplett hingebaut auf Rationales, was man messen kann und wo es dann so eine Logik gibt. Das ist auch wirklich mit Computation sehr eng verbunden. David Columbias Dissertation ist auch ein schönes Buch, was man mal lesen kann. Es heißt The Cultural Logic of Computation und zeigt halt, wie wir extrem viele Prozesse auf Berechenbarkeit runtergebrochen haben und auf alles muss in Daten gepresst werden. Berechnung muss nicht nur in Computern durchführen. Also auch viele Verwaltungsprozesse, die wir haben, sind eigentlich Berechnungen. Die erste KI ist The Corporation. Das Unternehmen mit definierten Strukturen, wo Papier von A nach B und ich setze diesen Haken, das arbeitet von außen auch komplett opak, das macht Entscheidungen, das ist eigentlich auch eine Form von KI, kann man so sagen. Und wir sehen das auch an der Stelle. Vom Taylorismus angefangen, was die Produktion umbaute, das wanderte in die Politik, das wandert in alles. Wir sind nur noch auf dieser Ebene unterwegs. Und das funktioniert. Und weil wir aber alles auf diese Ebene runtergebrochen haben und es eben keinen Wert außerhalb dessen gibt. Also mit der Industrialisierung hat man gesagt, hier, dieses Handwerkskunst, das leisten wir uns noch, da fahren sie dann mal in irgendwie so ein Dorf und da macht jemand Handwerkskunst, dann finden wir das ganz niedlich und dann gehen wir wieder. Aber dass eben Arbeit an etwas, dass das einen Wert hat und dass das nicht Content-Produktion ist, das haben wir gestrichen. Das ist für uns nicht mehr relevant an der Stelle. Das ist, wenn noch ein skurriler Seiteneffekt von irgendetwas. Diese Gesamtlogik wird, glaube ich, extrem schwer zu durchbrechen sein, weil wir alles darauf abgestützt haben. Weil sobald wir eingestehen, dass das ein Fehler war, müssen wir wirklich anfangen, hart zu arbeiten und zwar überall.
SPEAKER_00Ich habe mich gestern mit einem Fotografen unterhalten, genau auch quasi darüber, dass eben, ne, du hast vorher schon von diesen bildgenerierenden AIs gesprochen. Und die machen Fotos und die sehen gut genug aus. Quasi das, was vorher Handwerk war, machen die wunderbar. Und unsere Frage wird dann quasi das Skillset quasi fotografieren zu können und händisch Lichtbedingungen schaffen zu können, den richtigen Moment abzuwarten und so weiter und so fort. Wird das dann auch das, was du gerade als handwerkliche Skurrilität bezeichnet hast? Und davon wird es dann halt noch fünf geben auf der Welt und die sind dann halt so, oha, die können das mit Hand.
SPEAKER_01Ich würde da gerne ein Gegenbeispiel bringen, weil ich glaube, es gibt eine Industrie, die ist da weiter. Im Gaming. Im Gaming, das ist jetzt wahrscheinlich fünf, sechs, sieben, acht, neun, zehn Jahre her, da gab es irgendwann so eine Bewegung, in dieses Open-World-Design zu gehen. Also für die nicht-gamenden Menschen, die sich diesen Podcast anhören. Open World ist im Grunde eine Gestaltung der Spielwelt, wo man im Grunde selbst entscheiden kann, wohin man geht. Man hat so wenig Barrieren wie möglich und so weiter. Und dort ist eine Produktionsmethode entstanden, das nennt sich prozeduale Generierung der Welten. Also früher haben Designer die Welt gestaltet, sich überlegt, ah, da sollte ein Baum hin und da sollte ein Häuschen hin und so weiter. Und irgendwann gab es, manche nennen das auch KIs oder vielleicht auch nicht oder was auch immer. Das sind, glaube ich, so logische Algorithmen, die nach gewissen Mustern die Welt aufbauen. Aber auf jeden Fall bauen sie riesige Welten. Also wirklich riesige Welten, wo man vielleicht eine Stunde da durchlaufen kann, um da von A nach B zu kommen. Vor zehn Jahren oder wann auch immer war das voll das Ding. Die Leute haben gesagt, wow, unendliche Möglichkeiten und so weiter und so weiter. Aber heute kotzen alle. Jeder sieht diese Welten und jeder Content. Der wird vollgepackt mit irgendwelchen generischen Content und so weiter. Und man sieht dort jetzt genau die Drehung. Jetzt fangen wieder an, Leute zu sagen, naja, lass uns doch mal Welten bauen, die haben eine eigene Geschichte. Die Welt selbst hat eine Geschichte. Da gehe ich rum, da hat sich jemand was dabei gedacht, Sachen, die man entdecken kann und so weiter und so weiter. Und ich glaube, da hat man mal so wirklich so einen Circle gemacht. Man ist so einmal durchgegangen, hat gemerkt, so, oh cool, so Hype. Da hat man gemerkt, naja, eigentlich fühlt sich doch jedes Spiel an wie jedes andere Spiel. Und dann ist man wieder zu dem Punkt gekommen, naja, diesen Kram, der sich jemand ausgedacht hat, um mich zu überraschen, der nicht sozusagen dem Standardmuster und so weiter folgt. Sogar die Dinger, wo die Leute sagen, okay, wir kennen das Standardmuster, aber lass doch mal die Leute dort wirklich diese Überraschung finden, womit sie vielleicht nicht rechnen. Das ist dort komplett Full Circle gerade. Und ich glaube, da macht sich wieder die Entwicklung hin in Richtung, naja, komm, wenn wir schon so viel Geld ausgeben, lass uns doch wieder Sachen bauen, die Seele haben oder was auch immer. Deswegen glaube ich nicht, dass das einfach weggeht. Ich würde sagen, jetzt nach ein, zwei Wochen mit ChatGPT, ich check die Texte. Also man merkt das direkt. Also das ist so.
SPEAKER_02Voll. Aber ich glaube, dass diese generativen Systeme von früher, die haben strukturell eine leicht andere Qualität. Eins der Spiele ist ja No Man's Sky gewesen, ein unendliches Universum, wahnsinnig viele Planeten, jeder sieht anders aus und sogar der Soundtrack ist generiert und verändert sich die ganze Zeit. Die Band, die diesen Soundtrack gemacht hat, ist eine meiner liebsten Bands, 65 Days of Static. Brillante Band. Der wundervollste Krach der Welt. Wirklich fantastisch. Und sie sind schottisch, sie klingen auch noch lustig, wenn sie Dinge sagen.
SPEAKER_01Aber ich glaube, die alten Sachen waren besser als die neuen Sachen, habe ich gesagt.
SPEAKER_02Beide sind gut.
SPEAKER_01Aber egal. Lass mal das. Beide sind gut.
SPEAKER_02Aber naja, Paul Wolinski hat diese generativen Geschichten gemacht, der hat später auch dazu promoviert, der macht das auch immer noch, so generative Musik. Wenn man sich das anguckt und er spricht darüber sehr viel, dann siehst du, dass das eine andere Qualität hat als einfach statistisches Lernen. Da steckt eben doch eine Form von Ästhetik drin. Und ja, das generiert sich und generiert theoretisch ründerliche Dinge, aber das ist ein intentionales Muster. Das ist, wenn du in der Musik, da gibt es ja auch so Fugen, die sich immer wiederholen, da ist aber Intent drin. Das ist nicht statistisch irgendwie zusammengerührt. Das hat, glaube ich, deshalb schon auch noch eine andere Form von, ich würde das nicht gleichsetzen an der Stelle. Ich will nicht sagen, dass man, oh, die Seele des Autors und so war, das ist nicht der Punkt, sondern ich glaube, dass man auch den Leuten, die generativ schon vor langer Zeit gearbeitet haben, Unrecht tut, wenn man das jetzt an der Stelle einfach mit Let's generate some garbage, let's see what sticks, gleichsetzt.
SPEAKER_00Du sagst im Prinzip, man hat es gewollt. Also nicht, dass es genau so aussieht, aber dass das passiert.
SPEAKER_02Genau, die Strukturen sind intendiert. Also zum Beispiel die Versatzstücke, aus denen die Musik sich generiert, sind bewusst gewählt, sind bewusst platziert. Der Baukasten ist quasi von der Person bewusst zusammengesetzt und der macht jetzt Dinge, die immer innerhalb dieses Baukastens bleiben. Das ist die Handschrift, die da drin bleibt. Und das, glaube ich, ist schon auf einer leicht anderen Ebene als, naja, wir generieren irgendwas. Es ist alles egal. Wir generieren whatever. Nothing means anything.
SPEAKER_00Oder man macht halt nur noch Retuschierung. Also Texte einfach redigieren und retuschieren verdecken.
SPEAKER_02Genau, wenn überhaupt.
SPEAKER_01Mach das Bild nochmal, aber diesmal mit fünf Fingern.
SPEAKER_02Ja, oder das Finger-Ding wird auch gelöst werden. Diese Dinger, die du auch erkennen kannst, das wird dann aber auch egal sein. Hatten wir vorhin schon. Es ist gut genug dafür. Wenn Mercedes ein Werbespot dreht, die würden sowas einsetzen, entweder to make a point, guck mal, wir können noch KI, wir sind technikkompetent, die würden aber sonst immer sagen, nee, hier ist High Quality. Apple würde das nicht machen, weil Apple will Kontrolle. Apple sagt, das hier ist perfekt. Die würden sogar einen Punkt draus machen, sagen, bei uns ist es alles von Menschen gemacht, mundgeklöppelt, alles. Es ist nicht generiert. Wir werden halt, und das ist eine Feststellung, die jetzt auch nicht neu von mir ist, sondern zum Beispiel, wenn man Cathy O'Bates Weapons of Math Destruction liest, das ist ja auch schon ein bisschen älteres Buch, in dem es eben auch um diese Logik der Mathematizierung der Welt geht. Was man immer wieder feststellt, ist, diese automatisierten Systeme sind vor allem etwas, dem marginalisierte Gruppen ausgesetzt werden, und zwar ganz massiv. Du kannst dir jemanden leisten, der mit dir spricht und vielleicht ein Problem für dich löst. Die kriegen ein Chatbot. Ich habe gerade mit einem Freund, der Australier ist, versucht, einen Elterngeldantrag in Deutschland zu machen. Wenn du freiberuflicher Australier bist, mit einer Tochter, die jetzt irgendwie auch deutsche Staatsbürgerschaft hat, Elterngeld bringt dich um. Es ist kompletter Hass. Und ich als Deutsch angestellter Arbeiter, ich fand es auch schon schlimmer, aber das war nochmal der Klasse drüber. Jetzt stell dir halt vor, du bist eben nicht gut verdienender. Sonst warst du Freiberufler, du kriegst ein Chatbot, mit dem kannst du das jetzt aushandeln. Der versteht dich leider nicht. Wir wissen ja, wie sie Support-Chatbots sind, aber naja, hättest halt mehr Geld haben können, hättest dir da eine Anwalt genommen, der macht das dann halt für dich. Und ich glaube, das ist eine Mechanik, die wir an vielen Stellen sehen werden. Du wirst halt niemanden mehr ins Telefon kriegen. Versuch mal bei Google jemanden für einen Support zu kriegen, wenn du nicht einen mehrere Millionen Dollar Vertrag mit denen hast, da kriegst du halt einen Scheiß. Und das werden wir einfach mehr sehen. Die Qualität ist gut genug, um die Baseline unten damit zu erfüllen. Wir drücken die Baseline ein bisschen runter und die Baseline ist eben nicht mehr, da geht jemand ran und die Person ist über Prozesse so ein bisschen irgendwie gezwungen und kann dir vielleicht auch kein Handyvertrag geben, der kann dir sagen, sorry, deine Schufa, da steht einfach eine Scheißzahl, ich weiß nicht warum, aber ich darf dir das Ding nicht geben. Der Chatbot sagt, du kriegst es halt jetzt nicht. Kriegst du halt nicht. Hast halt keine Chance mehr, in so eine Interaktion zu kommen. Und sei so, dass du mehr Informationen bekommst, um handlungsfähig zu werden. Dieser Zugriff auf eben auch diese Flexibilität, die dir eben die Interaktion mit anderen Menschen gibt, das wird eben was sein, was nicht mehr vielen Leuten zugestanden wird.
SPEAKER_00Ich bringe häufig das Argument quasi auch in diesem Podcast, dass es gute Gründe gibt, zum Beispiel in Behörden, das bürokratisch aufzubauen, um sicherzustellen, dass jede Person genau gleich behandelt wird. Jetzt gibt es aber einen Unterschied zwischen die bürokratische Verfassung, alle werden gleich behandelt, so und so funktioniert das. Hier ist das Gesetz und dann den Menschen, die das ausführen. Und es gibt von Ferdinand von Schirach ein Theaterstück, das heißt Terror. Da geht es um eine Fragestellung, eine juristische Fragestellung, weil jemand mit einem Kampfjet ein Passagierflugzeug abgeschossen hat, das von Terroristen, also hypothetisch alles natürlich Fiktion, das von Terroristen entführt wurde und in Begriff war, in ein Stadion zu fliegen. Und quasi man hat das gemerkt, man hat schon Leute hochgeschickt in den tollen Kampfjets und so weiter. Und die ganze Zeit aber gewartet auf das Go vom Verteidigungsministerium. Und das Verteidigungsministerium hat nie dieses Go gegeben, dass man das abschießen darf, weil man nicht Menschenleben gegeneinander aufwiegen darf. Man darf nicht sagen, 80 Menschen sind weniger wichtig als 80.000 Menschen im Stadion per Gesetz. Aber es gibt auch kein Strafmaß, wenn es trotzdem getan wird. Weil natürlich in dieser Situation die menschliche Entscheidung super relevant ist. Also quasi zu sagen, okay, das Gesetz kann nicht abwägen zwischen den Menschen, aber ich kann trotzdem eine Entscheidung treffen, die außerhalb des Gesetzes irgendwo besteht. Man möchte ja nicht, dass Leute zum Beispiel aufgrund von Hautfarbe, Geschlecht oder sonstigen Dingen diskriminiert werden. Man möchte aber schon irgendwie noch ein bisschen Flexibilität drin haben, zu sagen, okay, guck mal, ich weiß, das war jetzt irgendwie ein Ausrutscher hier mit den Schulden, die du gerade hast und so. Ich vertraue dir, er passt schon. Und das finde ich super schwierig, weil wenn du das jetzt alles quasi algorithmisch abdeckst, da müssen wir ja noch gar nicht in ChatGPT sein, sondern das können wir einfach, wären wir halt weiter digitalisiert, wäre das ja auch schon so. Dann ist halt die Frage, ja, super effizient und theoretisch garantiert ist Gleichbehandlung, weil dem Programm sind wir egal, aber diese ethische Frage von, was ist der Mensch auf der anderen Seite, ist schwieriger zu beantworten.
SPEAKER_01Eigentlich hast du doch gerade einen Riesenfass aufgemacht. Und zwar, du sagst, wir sind vor dem Algorithmus alle gleich. Im Idealfall. Ich habe noch vier, mindestens vier Punkte hier aufgeschrieben, die für mich spannend wären, mal dort eure Perspektive zu bekommen. Es gab doch Fälle, wo bekanntere Beratungsorganisationen mit abgekürzt drei Buchstaben, Staaten beraten haben, wie sie vielleicht in Flüchtlingskrisen über irgendwelche AI-Dinger, Sachen auswerten und so weiter und so weiter. Und ich kann mich erinnern, die Art und Weise, wie diese Algorithmen bespielt, gefüllt, wie auch immer werden. Weil ich meine, wir reden halt sehr viel über ChatGPT. Und ja, das ist alles vielleicht halb so wild, weil das ist halt so Input, den wir kriegen, der spuckt uns halt ein bisschen Text aus, den lesen wir oder lesen wir nicht, wen interessiert es. Aber Algorithmen finden ja an vielen Stellen statt. Klar, die finden auch da statt, dass mir YouTube irgendwelche Sachen vorschlägt, was vielleicht auch noch halb so wild ist. Oder den Schuh, den ich mir letzte Woche gekauft habe, den kriege ich jetzt eine Woche lang auch noch als Werbung gezeigt. Aber es gibt ja Stellen, da ist es so richtig kritisch. Und da trifft das doch oft marginalisierte Leute, weil man da ja super effizient sein muss. Und jetzt kommt das Ding, worauf ich ihn auswähle, Entscheidungen treffen. Und dann, klar, suggeriert uns vielleicht die Algorithmik ein, ja, der ist gleich zu allen, aber das, was wir ihm gegeben haben, um Gleichheit zu bewerten, hat ja selbst wahrscheinlich eine Ungleichheit da drin. Und das ist doch super kritisch, oder?
SPEAKER_02Außerdem, here's an idea. Wir wollen gar nicht, dass alle gleich behandelt werden. Und ich meine das jetzt gar nicht in so einem zynischen, der Neoliberalismus will, dass arme Leute weiterhungern. Ich meine das ganz ehrlich, Leute, die mehr Hilfe brauchen als ich, sollen besser behandelt werden als ich. Ich brauche keine Sozialhilfe. Ich brauche die Unterstützung nicht. Andere Leute brauchen die und sollen die bitte auch bekommen. Man macht sich das so sehr einfach mit alle müssen gleich behandelt werden, das stimmt aber gar nicht. Es brauchen gar nicht alle dasselbe. Das heißt, natürlich kann man das in bestimmten Stellen, ergibt es schon Sinn, es soll irgendwie eine gewisse Vergleichbarkeit der Regeln und der Anwendung von Regeln geben. Aber ich glaube, eine Gleichbehandlung ergibt eben auch keinen Sinn. Weil eine Gleichbehandlung würde eben genau wie du sagst, es bedeuten, alle Personen. Ich wurde heute Morgen von so einem Chaco auf dem Fahrrad angehalten, es war niemand da, aber ich habe eine rote Ampelüberfahrt, ich kriege jetzt einen Punkt und zahle 100 Euro dafür. So, gut, wir können ja sagen, wir behandeln das gleich oder sagen, okay, ist das jetzt an der Stelle das, was das Gesetz eigentlich von uns will? Ist das, weshalb wir diese Regel haben an der Stelle? Und es geht mir jetzt nicht darum, dass ich diese Strafe auch gerne nicht bezahlen würde, whatever, sondern das ist ein Beispiel dafür. Und da sind wir interessanterweise wieder bei dieser Web 3-Welt, weil die wollen nämlich auch genau das, die wollen Gleichbehandlung. Es gibt den Buchstaben des Gesetzes, der ist ein Smart Contract und der wird für alle gleich angewendet. Und das ist die Utopie. Und ich glaube, das ist eine Dystopie, weil wir nicht alle gleich sind und nicht alle das Gleiche brauchen. Wir sollten auch diese Gleichbehandlung eben deshalb gar nicht als so ein positives Ding sehen, sondern wir haben Werte und unterschiedliche Menschen brauchen zur Erfüllung dieser Werte eben auch Unterschiedliches entgegenkommen. Das sehen wir immer wieder. Ja, diese Geflüchteten, wenn die hierher kommen, dann klauen die so. Erstens, wir geben denen keine Kohle. Zweitens, die kommen hochtraumatisiert aus Kriegsgebieten. Cut them a fucking break. Das kann man nicht gleich annehmen. Gleichheit ist da auch eben das Falsche. Aber du hast natürlich völlig recht. KI ist ja auch Bürokratie auf Steroiden. Das ist das, was man da reinmaut. Man baut so Bürokratiesysteme, die super effizient sind und Entscheidungen treffen können. Aber das ist halt nicht das, was wir wollen, eben weil wir nicht diese automatische Gleichbehandlung wollen. Weil wir eben an bestimmten Stellen eigentlich, und das ist das Ideal, was man theoretisch mal hätte, wir sagen ja auch immer, alle Leute haben in der entscheidenden Position einen gewissen Ermessensspielraum haben. Der soll ja genau diese notwendige und gute Ungleichbehandlung ermöglichen. Das Problem ist, dass weil wir alles so algorithmisieren und standardisieren, wir diesen Ermessungsspielraum eigentlich wegnehmen. Wenn du in einem Laden arbeitest und Handyverträge verkaufst, formal darfst du halt nicht einfach so, weil der Schufe-Eintrag scheiße ist, den Leuten das nicht geben. Das wäre auch so eine Form von Diskriminierung. Das ist ja nur ein Datenpunkt und du triffst ganz bewusst als Mensch die Entscheidung, nicht die Schufer mit ihrem Algorithmus. Faktisch tut sie das natürlich, weil wenn du gegen diese Schufa-Auskunft entscheidest, kriegst du auf den Deckel, wenn das schief geht. Du hast nur Risiko, wenn du dagegen verstößt. Das ist genauso wie der Computer sagt, diese Leute musst du jetzt erschießen, aber du musst auf den Knopf drücken, weil der Mensch muss die Entscheidung treffen. Du hast keine Möglichkeit, Nein zu sagen. Also nicht wirklich. Oder beziehungsweise Nein zu sagen musst du erklären. Ja zu sagen gibt den Orden. Das ist der Unterschied an der Stelle. Und wir bauen eben diese Systeme, wo wir formal dann immer sagen, ja, ja, das ist ja, das sind nur Unterstützungssysteme. Die werten halt Daten auf, geben so eine Beratung und ein Mensch trifft dann aber die Entscheidung, weil wir brauchen ja diese Ermessensspielräume und so und Werte und bla bla bla, europäische Werte, ganz wichtig. Weil diese Systeme existieren, sind diese ganzen Wertgeschichten kompletter Humbo. Passiert nicht mehr. Wenn du gegen das System sprichst, sprichst du gegen die echte Wahrheit, die dieses Ding erkannt hat, die hinter den Daten steckt. Das Ding hat, was es gesagt hat, aus den Daten gezogen. Und du hast nur Bauchgefühl.
SPEAKER_00Ja, und vielleicht ist es nochmal betonenswert bei diesem Wertepunkt, dass ein Wert ja ein Wert in sich ist. Und ein Wert nicht quasi gemessen werden kann an einer Externalität, wie zum Beispiel Geld. Ist es das wert? Und jetzt gerade haben wir diese Kindergrundsicherungsdebatte, so sind die Kinder zwölf Milliarden wert? Hä?
SPEAKER_02Es ist scheißegal. Das ist einfach scheißegal.
SPEAKER_01Anscheinend einigen Parteien nicht.
SPEAKER_00Genau, also weil du da sagen würdest, eigentlich theoretisch leben wir ja quasi durch den Kapitalismus in einem System, das rendert alles in Euro-Beträgen, in Geld. Genau. In Geldeinheit. Und damit gehen wir eigentlich ja zurück in eine Ära, in der quasi die Bürokratie und bürokratische auch Corporation und so weiter, du hattest es ja vorher auch schon gesagt, vor den gesetzlichen Einschränkungen waren, die aus unseren Werten kommen, wie zum Beispiel Arbeitsrecht, Arbeitssicherheit und so weiter und so fort. Also ich erinnere mich bei Max Weber, der eine USA-Reise gemacht hat und schockiert zurückkam, weil da quasi ausgerechnet wurde, sollten wir jetzt diese Schienen sicherer machen oder nicht. Ah nee, wenn wir quasi Schadensersatz für die Todesfälle zahlen müssen, kommen wir damit billiger weg, als wenn wir das nicht tun. Also als wenn wir die Reparaturen bezahlen müssten. Und damit war das quasi in Geldeinheiten gegeneinander aufgewogen und entschieden, aber eben bürokratisch oder algorithmisch entschieden und nicht wertebasiert entschieden, wo du sagst, oh, aber ein Menschenleben ist nicht aufregbar gegen Geld.
SPEAKER_02Genau, ein Menschenleben ist 12 Milliarden Euro wert. Und 20 Milliarden Euro und 100 Milliarden Euro. Scheißegal, drucken wir halt so viel. Wie viel ich darüber lese, ob wir uns die Pflege noch leisten können. Das ist eine Frage, die gibt es gar nicht. Das sind Menschen, die haben ein Recht darauf, dass sie in Würde leben. Unser Job ist, das sicherzustellen. Alles andere ist scheißegal.
SPEAKER_00Das ist Recht Nummer eins.
SPEAKER_02Genau. Das steht nichts im Spaß als erstes da. Es ist nicht so, wir überlesen die ersten fünf Seiten und gucken dann mal, was an Regeln rauskommt. Jemand hat sehr bewusst das als erstes hingesetzt. Aber wie du sagtest, wir haben uns aus der Hand genommen, politisch so zu argumentieren. Wir wollen das nicht mehr. Weil das andere ist halt einfach. Das Problem, und das fällt mir immer wieder auf, und wir führen sehr weit vom KI-Ding weg, wir können ja auch gleich wieder zurückkommen. Alles gut. Viele Leute haben ein großes Problem, habe ich den Eindruck damit, mit politischem Diskurs. Weil wir haben, wir sind in einer Welt, in der politischer Diskurs bedeutet, dass man immer einen Konsens herstellt. Politischer Diskurs, es gibt zwei Positionen, da gibt es einen Konsens in der Mitte, das hat man dann ausgerechnet, was das Richtige ist. Und das ist jetzt, wie wir das machen. Und das ist so dieser Mittezentrismus, in dem wir leben. Das impliziert halt, dass das geht. Das ist aber gar nicht, was Politik ist. Und Politik ist auch gar nicht so ein rationales, okay, ich rechne aus, das ist so viel, ich rechne aus, das ist so viel. Na, so viel CO2 durch den Straßenverkehr können wir uns leisten, weil wir können hier noch das gegenrechnen. Nein, es ist ein politischer Wert, jetzt zu sagen, wir hören mit bestimmten Verhalten einfach auf. Mir ist auch egal, ob das genug ist und wie viele Tonnen das spart und so weiter. Wir machen das jetzt, weil das ist richtig. Und diese Form von Diskurs sehe ich heutzutage in der Politik wirklich selten. Und ich merke auch, dass wenn ich so argumentiere, dass Leute mir dann immer sagen, du bist so emotional oder du bist ideologisch. Beides schlimme Worte. Darfst du beides nicht haben. Du musst in so einer neoliberalen Excel-Welt leben, wo du dann an den richtigen Stellen die Excel-Zelle markierst und dann kommt unten raus, nee, stimmt, das kriegst du jetzt. Wenn wir die Sozialhilfe kürzen, dann können die Kinder die Grundsicherung kriegen. Das war nicht das Versprechen der Demokratie ursprünglich mal den Eindruck.
SPEAKER_00Ich mache jetzt mal quasi den Bogenschlag zurück zur AEI.
SPEAKER_01Fantastisch, danke schön. Oh Gott, ich dachte, wir bleiben noch ein bisschen.
SPEAKER_00Ich glaube, wir bleiben trotzdem auch noch drin, aber gibt es dadurch jetzt nicht auch viele Möglichkeiten mehr, also wir sprechen ja auch viel von Chancengleichheit und solchen Dingen. Chancen sind nicht gleich. Gibt es nicht durch sowas wie zum Beispiel ChatGPT im Kleinen, aber dann ja in seinen Auswüchsen die Chance auf mehr Chancengleichheit, weil mehr Leute Zugriff auf mehr Ressourcen haben.
SPEAKER_01Mary, vielen Dank, dass du dieses Thema angesprochen hast. Es steht original auf meiner Liste. Ich finde, diese Mitte zu finden und so weiter, das ist so wieder so ein bisschen exemplarisch für die statistischen Verfahren, die uns versuchen, irgendwelche Mittelwerte zu geben in ihren Antworten. Das ist schon wieder fast. Ich bin ja gar kein Feind von Chat-GPT. Ich finde es super spannend und super lustig. Und es gibt bestimmte, ich sag mal so, eskapistische Themengebiete, die man damit voll lustig machen kann. Also es hat, glaube ich, schon so sein Ding.
SPEAKER_00Ich traue keinem Text von Human mehr. Ich bin mir sicher, alles, was ich in Textform von ihm bekomme, kommt eigentlich von Chat-GPT.
SPEAKER_01Vielleicht sollte ich hier noch in den Ring werfen. Ich habe ja einen Hauptschulabschluss und man hat mir nie wirklich Schreiben beigebracht. Deswegen mache ich heute immer noch Grammatik und Rechtschreibfehler. Und mein Leben lang brauchte ich immer jemanden neben mir, der nochmal auf meine Texte guckt, bevor ich sie rausschicke, damit ich keinen Herzinfarkt kriege. Und ich bin an einem Punkt, das muss ich nicht mehr jemand neben mir sitzen haben. Und das ist halt für mich einfach ein Relief.
SPEAKER_00Deine Deutschlehrerin oder dein Deutschlehrer weint jetzt zu.
SPEAKER_01Das ist halt einfach ein Versäumnis von Bildungsinstituten, dass sie sie nie geschafft haben, mir Rechtschreibung und Grammatik beizubringen. Aber das ist eine andere Geschichte. Worüber ich hinaus wollte, ist, merken wir nicht heute, und zwar jetzt gerade in diesem Moment, dass das, was du sagst, nicht stimmt. Denn wenn ich 20 Euro im Monat bezahle, kriege ich einen besseren Algorithmus, als wenn ich nicht 20 Euro im Monat bezahle. Und wenn wir jetzt diese ganzen Diskurse mit Armutsbetroffenen und so weiter, wenn wir sagen, naja, in Zukunft ist das Wissen gar nicht mehr so wichtig, das Wissen zu akkumulieren, sondern man muss die richtigen Fragen stellen. Ey, jetzt hast du jemanden, der ist richtig gut in Fragen stellen, der ist so super trainiert, hat sich mit Logik und bla bla bla beschäftigt. Aber wenn er nicht die Kohle hat, greift er trotzdem auf den schlechteren Algorithmus zurück, weil ich kann mir GPT 4 leisten für 20 Dollar im Monat. Ich glaube, jetzt gerade merkt man doch schon, dass das divergiert. Und das wird ja sich jetzt nicht so schließen. Ich meine, da ist ja der Business Case drin, würde ich am Ende sagen. Oder?
SPEAKER_02Interessanterweise widerspreche ich dir halt. Ah, du hast völlig recht. Ja, wenn wir gerade uns an ChatGPT festhalten, ja, wer mehr bezahlt, kriegt halt mehr Access und hat deshalb das Bessere und irgendwann werden wir so die kulturelle Praxis haben, dass wir erkennen, wenn jemand mit dem billigen Modell unterwegs war und sagt, na, konntest du das Richtige nicht leisten, wa? So, okay. Sieht halt scheiße aus, das ist dann auch so, dass es wie halt reckige Klamotten tragen oder halt nicht das richtige Logo am Revers haben und all diese sozialen Marker, die wir eh schon mit uns umtragen, das wird halt ein Beitrag sein. Es gibt natürlich Möglichkeiten, wo man diese Systeme schon einsetzen kann, um Menschen mehr Zugang zu geben. Meine Partnerin betreut eine Forschungsgruppe im Bereich KI for Public Interest, also für Gemeinwohl. Und die entwickeln zum Beispiel A, ein System, was anhand von sowas wie Google Street View versucht einzuschätzen, ob ein Gebäude barrierefrei betretbar ist oder nicht. Weil sowas wie OpenStreetMap hat das nicht immer gepflegt oder RealMap gibt es als Aufsatz davor. Das hat das nicht immer gepflegt. Das kann halt zumindest so ungefähr sagen, das sieht so aus, als wirst du wahrscheinlich ein Problem haben. Das kann Leuten, die eben, wenn du mit dem Rollsch unterwegs bist, du musst immer planen, kann ich da hin, kann ich da nicht hin. Das kann helfen und das kann eben da das Leben erleichtern. Genauso entwickeln sie auch ein System, was komplexe Texte in einfache Sprache übersetzt, leichte Sprache. Das heißt, insbesondere sowas wie Behördendeutsch runterbricht auf, okay, das ist eigentlich das, was da drin steht, was für dich relevant ist. Natürlich muss man da hart gucken, dass man irgendwie Systeme hat, die dann nicht anfangen, die Inhalte zu verzerren. Das ist schwierig, also extrem schwierig. Aber ich glaube schon, dass es unter Umständen für so bestimmte Herausforderungen, die Menschen haben oder Bedürfnisse, die Leute haben, dass man so Systeme bauen kann, die in diesem Kontext funktionieren und die da eine Unterstützung liefern. Genauso wie du sagtest, am Ende ist ja auch das Word, dir an bestimmten Stellen unterstreicht, hier da ist ein Grammatikfehler im Satz. Das ist Unterstützung, das ist fein, wenn das Ding dir was Falsches vorschlägt, am Ende ist auch egal. Also der Fehlerfall ist nicht so schlimm. Es wird dich wahrscheinlich nicht einen Job kosten an der Stelle. Wenn wir uns auf diese Machine Learning-Systeme angucken, es gibt dafür diesen schönen Begriff der Savant-Systeme. Was die halt sind, die haben eine Inselbegabung. Die können genau eine Sache. Alles andere, kompletter Müll. Aber worauf du sie trainierst, dafür funktionieren sie. Auch wenn du halt nicht Generatoren dir anguckst, die gerade so beliebt sind, sondern eben auch diese Klassifikationsdinge. Wenn du sie halt darauf trainierst, unterschiedliche Katzenarten zu unterscheiden, die werden Katzenarten unterscheiden können. Die werden dir sagen, was das für eine Rasse ist. Das können die dann. Für Hunde, game over. Keine Ahnung, was ist ein Hund? Aber das können die. Und für bestimmte Bedürfnisse, die Menschen haben, für bestimmte Probleme, die Menschen haben, können diese Systeme schon was sein. Und es kann eben auch was sein, was man eben als Open Source, als nicht OpenAIs, Rentier Capitalism, Ding durch, wo du halt monatlich bezahlen musst oder du bist raus, die man halt sagen kann, okay, wir stellen das als öffentliche Infrastruktur bereit. Der Bund hostet halt ein Rechenzentrum, da läuft die Inference für deine Übersetzungsdinge und du kannst die einfach haben. Wir bezahlen das aus Steuergeldern, scheißegal, wir wollen, dass es das gibt. Man kann das schon auch an vielen Stellen so nutzen. Und das sind schon auch nützliche Dinge. Das sind auch Dinge, die wir auch schon heute seit langem produktiv einsetzen. Also keine Ahnung, irgendwelche Erkennungen in Autos, ob die Leute pennen, irgendwelche Gefahrenerkennungen. Das sind schon Systeme, die man für spezifische Sachen einsetzen kann, die Menschen unterstützen können. Es gibt auch gerade in der Medizin Bereiche, wo du halt sehr, sehr viele Dinge vorscannen kannst und so viele Standardfälle wirst du verhältnismäßig schnell sagen, nee, da ist nichts. Also geht es um Krebserkenne und solche Sachen. Da gibt es wirklich brauchbare Modelle dafür. Nachdem man dreimal darauf reingefallen war und irgendwann haben die Dinger bestimmte Markierungen am Rand gelernt und immer richtig vorhergesagt, dass es Krebs ist, weil oben immer ein M stand im Trainingsdatensatz. Also nachdem man das raus hatte, hat man jetzt an vielen Stellen für ganz spezifische Lösungen mit extrem hohem Expertisegrad der Leute, die da mitgearbeitet haben, Systeme, die unterstützen können. Die nicht Entscheidungen vorwegnehmen, sondern die sagen, da bitte nochmal drauf gucken, sieht komisch aus. Könnte was sein. Und dann guckt die Person drauf und sagt, nee, ist nichts passt schon oder ja, stimmt, ist wirklich was. An vielen Stellen können diese Systeme was bringen, können uns als Gesellschaft was bringen. Die Gefahr ist natürlich immer zu sagen, ja gut, da brauchen wir noch die Hälfte der Radiologen. Und dann hast du plötzlich nicht mehr die Möglichkeit, mit einem Menschen zu sprechen. Okay, du bist nicht privatversichert, du kriegst halt, was die Maschine gesagt hat. Wupsi Daisy, da sind wir wieder bei diesem Diskriminierungsvektor, den es auch haben kann. Man kann es halt auf beide Arten spielen. Solange man halt in dieser, wir müssen Kosten minimieren, Logik ist des Neoliberalismus und der Austerity, beißt uns das in Arsch, muss es natürlich nicht. Solange man halt sich sehr bewusst ist und sehr genau testet und sehr genau mit den Betroffenen spricht, was ist es, was es für dich tun soll, was kann es und mit denen auch transparent ist. Das ist das, was das für dich tut. Das warnt dich vor bestimmten Dingen vor, aber es löst dein Problem nicht, aber es kann dir an der Stelle ein bisschen Hilfestellung geben.
SPEAKER_00Jürgen, wie sieht denn die Infrastruktur dazu aus? Ich habe jetzt im Kopf quasi Microsoft mit der neuen Bing-Dingsbums und ChatGPT und so weiter und so fort. Und alles sind ja Riesen US-Unternehmen, die da vorpreschen, aber jetzt hast du ja gerade auch von quasi vom Bund und von Open Source Geschichten gesprochen. Wie ist da die Landschaft?
SPEAKER_02Auch da geht es ja um das gut genug. Also OpenAI, wenn du dann hörst und Chat-GPT, dann hörst du mal, das hat jetzt so viele Milliarden Parameter mehr. Keiner weiß, was es bedeutet, aber mehr ist besser, das wissen wir. Mehr ist immer gut. Das kann man natürlich machen. Man schätzt, dass das Trainieren für ein aktuellen GPT-Modell, nur so einen Trainingslauf dafür durchlaufen zu lassen, kostet einfach nur an Strom und Ressourcen zwischen, man weiß nicht genau, vier und zwölf Millionen US-Dollar. Da hat es auch keiner benutzt, dass es jetzt trainiert. Und das machst du halt ein paar Mal, bis das Ergebnis gut genug ist, dass du es machen kannst. Das heißt aber nicht, dass man das immer so machen muss. Wenn du ein Telefon hast, da laufen auch solche neuronalen Netze drin, die auf irgendwas optimiert sind, die dein Foto vielleicht gerade ziehen. Das läuft auf deinem Chip in deinem Telefon drin. Der hat mittlerweile wahrscheinlich ein bisschen Optimierung für genau diese Berechnungen, aber das geht halt auch. Meta hat vor einigen Tagen einen eigenen Textgenerator rausgehauen, der heißt Lama. In vielen Tests ist er ähnlich gut wie GPT. Sie haben uns Leuten zur Verfügung gestellt, es ist geleakt, man kann den Torrent runterladen, man kann das mit selber rumspielen, es gibt lama.cpp, damit kann man es auf seinem eigenen Rechner machen. Und Leute fingen halt an, an dem Ding rumzuarbeiten und das runterzukochen, weil du brauchst diese Parametermengen häufig gar nicht. Du kannst ähnlich gut sein, wenn du das Modell viel kleiner machst und dadurch ist auch leichter berechenbar machst. Und wenn du halt eben nicht sagst, ich brauche dieses Blurry JPEG of the whole Internet, sondern wenn du einfach sagst, ich habe hier genau so ein Problem. Ich möchte eine bestimmte Eigenschaft aus Bildern heraus erkennen. Da muss ich gar nicht ganz Reddit scrapen und einen Parameter machen. Dann kann ich diese Dinge halt viel kleiner machen. Kann ich vielleicht sogar optimierte Chips dafür bauen, die das tun. Entweder können die Leute das auf ihrem Device machen oder ich kann es halt auch verhältnismäßig entspannt als Infrastruktur hosten. Ganz viel Machine Learning, das läuft teilweise im Browser, whatever your machine is. Also es gibt MediaPipe, ist so ein Tool, ich nutze jeden Tag für, wir machen ja so Medieninstallationen im Job. MediaPipe hat Google mal gebaut, das kann einfach im Browser, auf deinem Laptop, das erkennt Gesichter und Posen, die du machst und wie deine Hand steht, einfach aus dem Kamerabild. Das braucht nichts an Ressourcen, weil es halt super optimiert ist auf diesem Case. Viele Leute ist das nicht bewusst. Die Leute bei OpenAI glauben erstens, starke KI, also KI, die viel klüger ist, als der Mensch und alles kann und uns kontrollieren wird, ist die größte Gefahr für uns und sie bauen die jetzt auch.
SPEAKER_01Das ist dieses Artificial General Intelligence.
SPEAKER_02Genau. AGI nennt man das. Im Deutschen sagt man meistens starke KI oder eben. Mittlerweile auch manchmal in diesen Englischen. Die glauben, A, das ist die größte Gefahr und B, dass sie das jetzt bauen werden. Also eine Maschine. Und weil sie die bauen, wird die schon gut sein. Wer ist denn die? Also OpenAI. OpenAI glaubt es.
SPEAKER_01Aber die haben selber Angst davor.
SPEAKER_00Also die Leute, die das machen, die das bauen.
SPEAKER_02Genau. Sie sagen, das ist die größte Bedrohung. Elon Musk hat denen ja auch Geld gegeben, weil er auch sagt, das ist die größte Bedrohung, weil wenn es die AGI gibt, die wird uns unterwerfen und uns umbringen, weil das ist ja was immer, Stärkere machen mit Schwächeren. Es ist auch sehr viel Selbstoffenbarung.
SPEAKER_01Dieses AGI, das würde aber nicht auf Machine Learning, Deep Learning. Das müsste doch eine ganz andere.
SPEAKER_02Die glauben das schon. Open AI behauptet das. Die glauben, das ist der Pfad zu AGI.
SPEAKER_01Ah, okay. Also die glauben wirklich, dass neuronale Netze und dann Statistikprogramme.
SPEAKER_02Ja, die sind ja wie Gehirn. Man darf das nicht vergessen. Neben der Tatsache, dass sie zufällig so Produkt engineieren, die glauben an einen Kult. Die glauben an diesen Singularitätskult. Es gibt in der Informatik so zwei große Pfade oder große Theorien, wie man an so Intelligence kommt in Maschinen. Die einen sagen Sprache. Sprache generiert irgendwann Intelligenz. Das ist das, was OpenAI macht. Deshalb sind sie auch in diesem Textgenerier-Ding so drin. Der andere Pfad war Embodiment. Das heißt, du musst Software in einen Roboterkörper oder sowas bringen, damit es in der Welt interagieren muss und damit würde sich das irgendwie ergeben. Das hat OpenAI ja auch eine Zeit lang gemacht, damit haben sie aufgehört, daran glauben sie nicht mehr. Es gibt aber eben viele Leute, die das glauben.
SPEAKER_01Das sind diese Bossen Dynamics, Leute, oder?
SPEAKER_02Ja gut, die wollen einfach Roboter zum Töten von Menschen bauen. Das ist nochmal eine Militärberechtigkeit bauen. Das waren so zwei ganz große Stränge, wo man sich die Frage stellte, wo kommt die Tatsache, dass wir Intelligenz haben her? Und einige sagen Sprache und andere sagen, weil wir einen Körper haben und in der Welt operieren und so weiter.
SPEAKER_01Vielleicht ganz kurz, es gibt ja in der Wissenschaft dieses Hard Problem of Consciousness. Wir wissen es nicht. Also wir wissen nicht, wie unsere eigene Bewusstsein, Intelligenz und so weiter funktioniert. Die glauben jetzt sozusagen, dass A oder B dazu führen würde. Aber es gibt keine Wissenschaft, die das belegen könnte.
SPEAKER_02Genau, das ist, wie nennt man Bauchgefühl in der Wissenschaft? Theorie.
SPEAKER_01Ah, genau. Dieses Ding.
SPEAKER_02Natürlich, wissenschaftliche Theorien sind etwas anderes als Bauchgefühl, aber das ist so, Leute haben halt die Theorie, dass das ein Weg dahin sein könnte. Und man kann es auch nicht widerlegen bisher. Es ist halt schwer zu zeigen, dass das nicht funktioniert, weil ja, es funktioniert jetzt nicht, aber die nächste Version kann es dann ja. Wie kamen wir darauf? Wir haben über General, aber warum haben wir über AGI gesprochen?
SPEAKER_00Superintelligenz, AGI quasi und es gibt diese zwei Ansätze und bei ChatGPT ist quasi der Ansatz. Satz über Sprache. Genau. Weil wegen der Infrastruktur quasi und Elon Musk denkt, das übernimmt die Welt und deswegen will er es als erster machen.
SPEAKER_02Genau, weil er glaubt, er kann es dann kontrollieren und dann, weil wir alle wissen, Elon Musk ist der netteste Mensch der Welt, da wird nichts schief gehen. Dann wird das sich eine voll gute Sache. Elon Hudson griff.
SPEAKER_01Safe.
SPEAKER_02Es gab noch irgendeine Frage von Human vorher, weshalb wir darüber gesprochen haben, ich habe es vergessen. Ich bin auch nur eine Markov-Kette, wie wir alle wissen, und ich habe nicht so weit den Blick nach hinten.
SPEAKER_01Aber vielleicht ganz kurz, weil ich fand es eigentlich gerade ganz spannend, weil wir sind in dieses Rabbit Hole so ein bisschen gerade runtergelaufen. Dieses OpenAI-Menschen, die sozusagen glauben, dass wir über diese statistischen Verfahren zu der Artificial General Intelligence kommen. Und das, was sie aktuell machen, ist sozusagen der Weg dahin, weil sie sich davor fürchten.
SPEAKER_02Nee, sie sagen, OpenAI heißt ja OpenAI, weil sie ursprünglich als gemeinnützige Organisation gegründet wurden. Mit viel Geld von Elon Musk und anderen Millionären aus diesem Singularitätsumfeld, um eben dieses Problem dieser AGI zu bekämpfen. Sie sagten, jemand wird AGI entwickeln und vielleicht sind es die bösen Chinesen, wie auch immer, darf nicht passieren, weil dann werden wir alle unterworfen und Skynet, whatever. Wir entwickeln das, weil wir sind die Guten. Wir wissen, dass das eine Gefahr ist und wir werden das so bauen, dass das gut für die Menschen ist. Und deshalb sind wir OpenAI, wir sind nicht profitorientiert, sondern ausgerichtet am Wohl der Menschheit. Das hat sich geändert, irgendwann war man plötzlich eben nicht mehr eine gemeinnützige Organisation, sondern eine normale Corporation. Und jetzt vermietet man eben auch diesen Zugang da an der Stelle, also hat sie was verwendet. Aber diese Mission grundsätzlich ist nicht anders geworden. Sie glauben, sie bauen die AGI, weil sonst wird es jemand anderes tun und sie sind die guten. Sie halten das unter Kontrolle. Unausweichlich. Es gibt keine Alternative dazu, dass das jemand bauen wird.
SPEAKER_00Das ist der perfekte Marvel-Film.
SPEAKER_02Wir können uns nicht entscheiden, das nicht zu bauen, sagen sie. Und deshalb bauen sie das, damit es die Guten machen.
SPEAKER_03Okay.
SPEAKER_02Überhaupt zu glauben, dass man auf diesem Weg zu AGI kommt, ist schon auch eine bisschen skurrile Haltung, weil why?
SPEAKER_01Ja, ist halt reduktionistische Weltsicht, ne? Im Grunde, das ist, wir reduzieren den menschlichen Geist auf Gehirnneuronen, die sich gegenseitig mit Nullen oder Einsen befeuern. Und so ist Gehirn.
SPEAKER_02Genau. Sam Altman, der Chef von OpenAI, sagt, du bist auch nur ein stochistischer Papagei. Genau. Und dann kann sein System das auch. Dann ist das schon cool.
SPEAKER_01Es muss halt nur mehr Rechenleistung haben. Mehr Computing Power, mehr neuronale Netze, General Intelligence.
SPEAKER_02Genau. Natürlich könnte man sich auch die Frage stellen, warum minimieren denn sie nicht ihre Netze? Wenn man halt mit viel weniger Aufwand und viel weniger Carbon Footprint und viel weniger Elektroschrouten auch machen könnte. Nee, ihr Punkt ist, sie wollen diese Größe haben, weil sie glauben, in dieser Größe und in noch mehr Größe und in noch mehr Größe finden sie irgendwann diese AGI. Wenn du auf das Ding als Produkt gucken würdest, so du bist als ein Unternehmen, dann würdest du immer gucken, wie kann ich das günstiger laufen lassen? Wie kann ich das auf den Telefon der Leute laufen lassen? Da muss ich nämlich keine Rechenzentren betreiben. Das ist nicht ihr Fokus. Dass sie ein Produkt haben, ist ein Seiteneffekt. Das, was sie eigentlich wollen, ist dieses AGI-Ding. Habe Zeit für ein Rabbit Hole? Wir haben Zeit. Lass runterrennen. Sam Altman ist eine interessante Figur. Er ist nicht nur der milktostigste, langweiligste Mensch der Welt, wenn man ihn so sieht, sondern er hat ja neben OpenAI noch eine andere Firma. Die heißt Worldcoin. Coin. Natürlich ist er auch so ein Kryptofaschist. Der sammelt ja auch Gold in seinem Keller und glaubt, dass die Welt bald untergeht und er hat Waffen gebunkert. Gut, dass er 20 Dollar im Monat von mir kriegt. Genau. Naja, Worldcoin sagt, sie haben ein Kryptotoken und auf das kriegst du Zugriff, wenn du halt deine Iris scannen lässt von denen, die haben so einen Apparat-Chick so, weil sie halt quasi Fingerprints, nicht von den Fingern, sondern von deiner Iris und so weiter, aufnehmen wollen, damit du quasi dann demnächst nachweisen kannst, dass du ein echter Mensch bist. Das heißt, sie nehmen deinen biometrischen Fingerabdruck, weil bald ist KI so stark, dass man das nicht mehr unterscheiden kann und du musst immer nachweisen, dass du Mensch bist und über Tests geht es nicht mehr, weil KI ist eh besser als du. Für ihn ist das wirklich auch so ein kombiniertes Ding. Der glaubt, dass AGI um die Ecke ist. Deshalb baut er dieses Worldcoin-Ding und verspricht Leuten als Mückige.
SPEAKER_00Ist auch dann sinnvoll.
SPEAKER_02Und natürlich, wie immer, wenn man solche Technologien ausprobiert, dann probiert man das natürlich an Menschen in Ländern des Global South aus. Weil er weiß auch, dass er das in den USA gar nicht darf, was er da alles tut. Aber das sind halt eben auch mehr als nur Unternehmen, die jetzt ein Produkt entwickeln wollen, damit Geld verdienen wollen, die man das so kennt. Wenn man so naiv dann drauf guckt, oh, OpenAI ist ein Unternehmen aus den USA, die haben Chat-GPT entwickelt, kann man Geld bezahlen. Das sind Überzeugungstäter. Denen geht es da um was. Denen geht es wirklich darum, die Zukunft der Welt zu verändern. Und nicht im Sinne von, wer den reichsten Leute auf dem Planeten, sondern sie glauben, dass sie die Zukunft der Menschheit entscheiden. Das sind kleine Jungs, die ihre eigene Superhelden-Fanfiction schreiben.
SPEAKER_00Oder nicht so kleine Jungs, weil die ja schon ziemlich viel Wumms in die Welt setzen können.
SPEAKER_02Das stimmt. Sam Altman, wenn der nachts pennt, dann hat er mehr Geld verdient, als ich in meinem Leben verdienen werde.
SPEAKER_01Warum produziert Silicon Valley, diese Gegend in den USA, diese komischen Menschen, wie ich meine, Peter Thiel haben wir erlebt, Elon Musk kennen wir, jetzt den Kollegen hier, dann hier von dieser einen Crypto-Dings da, diesen. Sam Bankman-Fried. Genau, der auch so gehypt wurde, als irgendwie der Dude, der irgendwie Altruismus hier pushen will und so weiter und dann man gemerkt hat, nee, doch nicht. Das ist doch irgendwie wirr, oder? Da muss ja irgendwas Verrücktes passieren mit den Leuten dort.
SPEAKER_02Es ist gerade ein schönes Buch ausgekommen. Ich habe es noch nicht gelesen, ich habe nur Auszüge gelesen. Palo Alto heißt es. Von Malcolm Harris heißt er. Also Palo Alto, das ist ja, wo Stanford sitzt, wo Googles Hauptquartier sitzt. Du kannst die gesamte Geschichte dieser Techblase an der Geschichte des Ortes erzählen. Dieser Ort wurde gegründet, weil jemand, der in San Francisco wohnte, mit seinem Anwesen, irgendwie so ein Großindustrielle, dem ging es auf den Sack, dass seine Arbeiter genau wussten, wo er wohnt. Also hat er halt sich so eine Retortenstadt vor die Stadt gebaut, da auch eine Uni hingesetzt und da ist dahin gezogen. Und seine Arbeiter mussten dann weiter in San Francisco arbeiten. Damals gab es da halt noch irgendwie produzierendes Gewerbe. Und dann wurde halt diese Uni gebaut. Eugenik ist ein ganz großes Thema in dieser ganzen Geschichte immer gewesen. Die Gründer von Stanford glaubten hier an dieses ganze Schädelmessen und diese ganze Nummern und die ganze Geschichte der Eugenik und dieses ganzen Machine Learning-Kramms. Da gibt es auch mehr Berührungspunkte, auch personelle Art, als einem das lieb sein kann. Ich glaube, dass man da halt erstens eine Umgebung, in der insbesondere in den letzten Jahren, in dieser Nullzinspolitik, sehr viel Geld rumschwappte und man weiß in jungen Männern für alles Geld gab. Insbesondere wenn sie von Stanford kamen, weil alle kamen von Stanford und das war so, ja. Und Stanford ist halt eben auch ideologisch ein problematisches Ding. Die glauben halt an genau diese Welt von alles muss computerisiert werden. Alles, was berechenbar ist, kann man auch machen. Und ich bin ja selber Informatiker und ich merke auch selber, wie schwer das für mich ist, bestimmten Bullshit loszuwerden, der mir so implizit eingetrichtert wurde, der leicht ist, da reinzufallen. Wenn du Informatik studierst, dann hat das ja wenig mit Programmieren zu tun. Leute glauben immer, man lernt dann Programmieren so. Ja, aber es gibt doch einen Programmierkurs, aber darum geht es eigentlich nicht. Was du lernst, ist Modelle bauen. Jemand beschreibt dir ein Problem, du bist in der Lage, das irgendwie zu formulieren und ja, du kannst es dann auch implementieren, aber es könnte auch jemand anderes. Du schaffst halt die Strukturen, die man dann im Code gießen kann, damit man das so machen kann. Ein Fehlschluss, den viele Nerds machen, deshalb sind Nerds auch immer so anstrengende Welterklärer, wie ich gerade, ist der Fehlschluss zu sagen, wenn ich ein Modell von allem bauen kann, kann ich auch alles verstehen und kann auch alles gestalten, weil ich kann ja Modelle von allem bauen. Ich weiß ja, wie die Welt funktioniert. Ich kann das in meinen Code schieben. Es ist ja überhaupt kein Problem. Das heißt, du erziehst Leute in so einer impliziten Welt sich, ja, guck mal, ich verstehe alles, ich baue dir die Software dafür. Ich verstehe genug von Software, dass ich weiß, wen ich aussuchen muss, um das so ungefähr zu bauen. Das ist ja kein Zufall, dass das nie Leute sind mit einem Social Sciences Background. Das ist halt einen Grund, dass das Leute sind, die immer aus dem Engineering kommen. Wenn sie nicht schon ein Studium abgebrochen haben und direkt im Venture Capital waren, wo es ja auch nur ist, wenn du halt viel Geld damit verdient hast, war es auch richtig. Und es geht ja auch nicht darum, ein Produkt zu bauen, was jemand braucht. Es geht um ein Produkt zu bauen und dann ein Market fit herzustellen, nachdem man das Produkt dann hat. Es geht nicht darum, echte Probleme zu lösen, es geht darum, das Geld einzusammeln für etwas und dann zu hoffen, dass du das irgendwo schon reinkriegst. Und sonst veränderst du dich noch dreimal. Das ist halt ein extrem komplexes Ding. Es wird dazu in der nächsten Zeit auch noch ein Buch geben, auf das ich mich sehr freue, auch von David Columbia, den ich, glaube ich, schon mal erwähnte mit seiner Dissertation. The Californian Ideology. Wenn du dir halt die Wired, die eine Zeit lang ja so eine ganz wichtige Zeitung auch für diese Szene war, die haben das ja genauso propagiert. Technik ist immer die Lösung, die Zukunft liegt immer in der Technik. Und das heißt, du hast dir Dudes, denen gibst du Geld, sie bauen Technik, offensichtlich sind sie die Lösung, offensichtlich sind sie auch die Einzigen, die die Lösung haben, weil sie die Technik bauen. Das ist einfach eine Subkultur. Die riechen ja auch alle nur ihre eigenen Farts. Also die sind alle immer in Podcasts miteinander und reden die ganze Zeit. Und da ist halt niemand, du merkst es an Elon Musk, genauso wie an seinen hier, wie heißt sie, hier David Sachs und Jason Callachanis, seine ganzen Venture Capital Brothers da, denen sagt niemals jemand in seinem Leben nein. Die haben niemanden mehr in ihrem Leben, der sagt, das ist doch jetzt Bullshit, was du redest. Das gibt es da gar nicht mehr.
SPEAKER_00An dieser Stelle auch die Buch- und Corporatherapy-Podcast-Empfehlung.
SPEAKER_01Episode 39. Tier, das hier willst du sagen.
SPEAKER_00Hervorragend, vielen Dank. Mit Adrian Dau. What Tech calls thinking oder auf Deutsch, was das Valley denken nennt, der das auch nochmal sehr schön ideologiehistorisch hergeleitet hat.
SPEAKER_01Ich hatte mich gerade das Kapitel aufgeschlagen, Begehren. Da redet er über Peter Thiel und dass er so eine parareligiöse Gruppe sich um irgendeinen Typen gebildet hat, der dort irgendwelche sehr radikalen Ideologien da versprüht hat und dass diese Ideen da immer noch weiterleben. Das ist schon echt wirklich verrückt.
SPEAKER_00Toll. Und ich dachte, voll gut, jetzt kann ich leichter Texte verfassen. Oder wenn ich mal hänge, dann frage ich einfach ChatGPT und jetzt sind wir schon wieder bei Themen von Ideologie und anscheinend auch von Weltherrschaftsfantasien und.
SPEAKER_01Entschuldigung. Lass doch mal hier so ein bisschen im Kreis drehen. Die erste Sache, die mir da durch den Kopf geht, ist die Herausforderung nicht eigentlich zu sagen, dass diese ganze AI- oder KI-Sache, das müsste mehr in gesellschaftliche Hand, so wie das Internet auch nicht einer Person gehört? Ist das nicht so ein Ding, wo man sagen müsste, da müssten auch im Notfall auch mal Staaten aktiv werden und sagen, naja, bei so krassen Sachen wäre es sinnvoll, dass das nicht nur in Händen von Konzernen ist? Oder gibt es da. Oder anders, wie aktiv sind sie? Genau, oder wie aktiv sind sie oder zumindest, dass die Gesellschaft da irgendwie mitreden kann, anstatt libertären Ideologien von ein, zwei bestimmten Personen zu verfallen.
SPEAKER_02Naja, sowohl Bundes- als auch EuropapolitikerInnen würden ja sagen, machen wir doch. Also es gibt auf EU-Ebene diesen AI-Act und es gibt auch Gesetzgebung dazu auf Bundesebene, mit der man sich irgendwie beschäftigt. Und es gab jetzt gerade vom Deutschen Ethikrat eine Stellungnahme zu KI und allem, so ungefähr. Das sind aber auch 300 Seiten, die hätte auch Chat-GPT raushauen können. Also da ist auch inhaltlich nichts drin. Ich glaube, das Problem an der Stelle ist, wir haben auch im Zuge dieser ganzen Austeritätslogik und Geldlogik und Marktlogik, haben wir uns ja entschieden, dass Staaten gar nicht mehr gestalterisch da sein sollen.
SPEAKER_01Ordnungsrat.
SPEAKER_02Die dürfen ja maximal noch so ein bisschen so verwalten, dass Dinge so da seien. So Polizei müssen die am Staat haben, dass man so seine Verträge durchsetzen kann. Aber wir sehen ja sehr selten, dass noch der Staat als so ein wirklich aktiver Player geframed wird. Auch staatliche Stellen selber tun das kaum noch. Und wir haben ja sogar, wenn es um so Digitalthemen geht, erstens null Kompetenzen in den ausführenden Ebenen. Also wir sind in Deutschland an dem Punkt, dass mir kein Ministerium bewusst wäre, was ein IT-Projekt selber leiten kann. Die können nicht mal eine Ausschreibung machen für das, was sie brauchen. Wenn die ein Problem haben oder eine Ausschreibung brauchen, dann rufen die halt Kap Gemini oder Init oder McKinsey an und schreiben die denen die Ausschreibung und dann setzen sie das um und dann hat es halt 20 Millionen Dollar gekostet. Euro, nicht Dollar, Euro. Das heißt, wir haben da auf dieser Digitalebene erstens wenig Kompetenz, sodass jemand überhaupt auffallen könnte, dass das was sein müsste, mit dem man sich beschäftigt. Und auch wirklich, man sagt, wir als Staat wollen hier auch ernsthaft gestalten und nicht nur, wir fördern jetzt ein paar Leute und dann gibt es Startups und dann werden das alles Unicorns. Weil wir, und das bezieht sich jetzt gar nicht nur auf diesen KI-Kontext, sondern auf alles Digitale, wenn wir darüber lesen, wie auf EU-Ebene und aber auch auf Bundesebene über das Digitale gesprochen wird, dann wird es nie als politischer Raum so richtig verstanden. Das ist immer ein Wirtschaftsraum. Wir brauchen KI-Startups in Deutschland. Wir brauchen eine KI-Landschaft in Europa, die so gut ist wie die in China. Es ist ein Wirtschaftsthema.
SPEAKER_01Ein Wettbewerbsthema auch mal, ja.
SPEAKER_02Digitalisierung ist immer ein Wirtschaftsthema. Und da steht dann immer was von drin. Erstens technische Souveränität, was immer bedeutet, die stinkenden Ausländer haben es nicht gebaut. Und unsere KI hat Werte, was auch bedeutet, die stinkenden Ausländer haben es nicht gebaut. Aber es bedeutet nichts Inhaltliches. Es wird damit nichts verbunden. Wir benutzen KI trotzdem, um Leute, die über das Mittelmeer gerade geflüchtet sind, sie dann zurückzuschicken und zu sagen, guck mal, nee, du bist jetzt raus an der Stelle. Wir benutzen KI immer noch für diskriminierende Prozesse. Das hat mit Werten überhaupt nichts zu tun. A hat McKinsey gesagt, wir können damit eure Prozesse optimieren und ihr wollt ja schneller Leute abschieben, das ist wichtig. Und auf der anderen Seite sagt man, ja, VW muss auch KI haben, weil KI ist Zukunftstechnologie. Das Einzige, was man vielleicht noch tut, ist zu sagen, naja, hier, Deepfakes von Leuten darfst du nicht veröffentlichen. Sowas machen wir noch, so ein bisschen Persönlichkeitsrecht Dinge. Aber dass wir da wirklich einen gestaltenden Staat haben, aber das ist ja nicht nur ein KI-Thema. Wo haben wir den denn? Also wo gestaltet unser Staat auch im Internet überhaupt? Also vielleicht noch, wir bieten jetzt PDFs von unseren Pamphleten an. Aber den wirklich zu sagen, wir wollen, dass als Mastodon aufkam, als Twitter-Alternative, hätte man ja auch sagen können, weißt du was, jede Stadt hostet einfach so eine Instanz und wenn du Bürger bist, kannst du einfach einen Account haben, der ist da. Wir sichern den ab, wir garantieren dir, dass die Server laufen, wir garantieren dir, dass die gewartet werden. Man könnte sagen, der Staat garantiert dir einfach eine E-Mail-Adresse, die ohne Überwachung und ohne Shit ist und keine Werbung drin. Die musst du nicht benutzen für nichts. Wenn du eine willst, kriegst du die umsonst. Das ist einfach part of the deal. Der Staat könnte sehr aktiv sein und sagen, Teilhabe an digitalen Prozessen ist für uns ein Grundwert und wir stellen sicher, dass du das kannst. Für umsonst. Weil du das Recht hast. Macht er aber nicht. Weil da muss ein Start-up sein. Gerade wird viel über PIMS, Personal Identity Management Services gesprochen. Du sollst halt, weil das schwierig ist, deine eigenen Daten zu verwalten, ist doch alles lästig, also sollen da jetzt Startups entstehen. Es gibt so einen großen hier Veremy von Springer. Solche Firmen sollen jetzt irgendwie angeschoben werden, die sollen deine Daten für dich verwalten. Warum?
SPEAKER_01Da war auch so ein McKinsey in Spiel, habe ich gehört.
SPEAKER_02Selbstverständlich, dann schmutzig wird es immer McKinsey im Spiel. Aber warum? Wir können Digital nur so denken. Digital ist immer ein Förderungsding. Und deshalb ist halt auch dieses KI-Ding. Ich war vor einigen Monaten im Bundestag, da war es aber KI und Metaverse, das war auch ein bisschen strange Anhörung und so. Nee, es war KI und Blockchain, nicht KI und Metaverse, es war KI und Blockchain. Naja, da saß halt auch jemand, der hatte wohl mal bei Apple gearbeitet, der hat jetzt irgendwie so ein KI-Startup, der sitzt in Heidelberg und sagt, wir müssen das jetzt gefördert haben und alle nickt und sagt, ja, ja, stimmt, wir müssen jetzt fördern bei Zukunftstechnologien. Und niemand fragt so, okay, warum, wofür und was ist eigentlich unsere Rolle an dieser Stelle? Die Rolle des Staates ist in diesen Digitalthemen immer nur Förderlinien lustreten und Regulierungen wegmachen. Das sind noch so die Ebenen, auf denen wir verhandeln können. Und deshalb sieht sich, glaube ich, der Staat da auch nicht in der Pflicht, außer halt zu sagen, ja, Datenethikrat und jetzt schreiben wir noch ein Gesetz, das man nicht explizit. Du musst dann immer einen Menschen dahinsetzen, der auf den Knopf drückt, den ChatGPT generiert hat. Dann hat der ein Mensch die Entscheidung getroffen. Das war jetzt auch wieder so sehr ranty, es tut mir leid, ich weiß nicht. Das ist aber auch eins meiner Herzsystemen. Ich mache das aggressiv. Ich finde das so empörend, wie die Politik Gestaltungswillen aufgegeben hat.
SPEAKER_00Was ich glaube, eine verständliche Reaktion ist. Und natürlich auch ein guter Kontrapunkt zu, vorher haben wir gesagt, warum sprechen wir auch heute darüber, naja, alles ist halt überflutet von geil, ich habe das von ChatGPT schreiben lassen. Deswegen wollten wir auch mit dir sprechen, um einmal zu verstehen, was bedeutet das eigentlich und auch, was hängt da noch hinten dran, ne? Also was muss man sich vielleicht auch noch mit überlegen, wenn man sich mit diesem Thema beschäftigt.
SPEAKER_01Was ich bei dir jetzt spannend fand, war eigentlich eine Sache, oder prinzipiell auch in dieser Diskussion sehr spannend, dass du ja relativ, ich will nicht sagen, neutral, aber ich habe auch schon ein bisschen gehuckt, du hattest ja auch schon auf LinkedIn und auf Twitter auch schon darüber geschrieben, dass dich das gar nicht so hype, dass dieses Chat-GPT da ist, sondern eine weitere Evolutionsstufe ist von Sachen, die schon längst da waren. Auch jetzt in dieser ganze Diskussion, so kleine, dich hype das jetzt nicht vielleicht wie die eine oder andere Person. Aber was mich interessieren würde, ist, wenn man da jetzt sozusagen ohne den Hype drauf schaut, es hat ja, anders als das, was wir letztes Mal gesprochen haben, Blockchain und Crypto und so weiter, hat es ja schon einen Nutzen. Jetzt unabhängig, wem der gehört. Wenn du sozusagen jetzt mal die Brille aufsetzen würdest und sagen würdest, was wenn wir uns alle mal ein bisschen beruhigen würden und sagen, was könnte uns das vielleicht auch gesellschaftlich bringen, wenn man da wirklich mal sagt, ey, ne, ein Staat guckt mal drauf oder was könnte uns das denn geben? Also welches Potenzial steckt denn da drin? Jetzt über den klassischen, der schreibt uns jetzt unsere Copies für unsere LinkedIn-Posts oder so.
SPEAKER_02Ja, ich meine, das ist offensichtlich gesellschaftlich wie LinkedIn selber vielleicht auch gar nicht so relevant für vieles. Ich mache kurz einen Schritt zurück. Ich glaube, dass dieses so über Technologie reden gar nicht viel hilft. Ich finde ja auch Technologie wirklich langweilig. Und ich sage das, als jemand, dessen Job ist, rauszufinden, welche Technologien für mein Unternehmen in den nächsten fünf bis zehn Jahren relevant sein werden. Es ist sehr leicht, sich in diese Technologiefrage zu versenken und sagen, okay, ChatGPT ist jetzt da, diese Transformer-Networks sind da, was machen wir jetzt damit? Weg gehen die ja nicht. Es gibt keine Alternative. Was machen wir jetzt mit diesen Dingern? Fluch oder Segen? So, bla bla bla bla bla. Das ist aber doch gar nicht die Frage, die wir uns stellen müssen. Die Frage ist halt, was wollen wir tun? Welche Welt wollen wir haben? Und dann merkt man sehr schnell, es gibt bestimmte Situationen, wo eben solche sehr speziell funktionierenden Systeme Wert haben. Es geht ja darum, Probleme zu lösen. Oder sollte es bei Technologie drum gehen? Probleme in einem sehr weiten Sinne. Also es geht darum, Menschen etwas anzubieten, mit dem sie was hoffentlich Wertstiftendes oder Spaßstiftendes tun können. Entweder ökonomisch was reißen können oder ist einfach cool. Videospiele reißt für mich ökonomisch nichts, aber macht Spaß. Und wenn man so darüber nachdenkt, du nachdenkt, was können diese Systeme? Entweder benutzt du sie als Klassifikation, also die können halt aus zum Beispiel einem Kamerabild Dinge verstehen, die ich vielleicht nicht verstehen kann oder schneller verstehen als ich oder so. Da gibt es diverse Dinge. Weißt du, es gibt so viele Apps, die im Waldvögel für dich erkennen. Das ist alles Machine Learning, das hat einen Wert für dich, weil du könntest es sonst nicht. Und ja, man könnte auch sagen, das Ersetzt die Arbeitskraftdiennehmer bezahlen würde an der Stelle. Aber das ist cool, weil es dir auch erlaubt, Verbindung zu der Welt um dich herum aufzunehmen. Dich interessiert ja, wie dieser Baum heißt, weil du irgendwie, vielleicht sieht der cool aus. Und vielleicht ist das, was ist das? Ist das eine Eiche? Ist das eine Birke, würdest du wahrscheinlich erkennen? Da ist ja der Wert drin, nicht, oh, wir haben KI eingesetzt, sondern der Wert ist, du verstehst die Welt um dich herum besser und kannst Beziehungen zu deiner Umgebung aufnehmen. Das ist ein großer Wert für uns alle. Und das macht was mit dir, dass du dich verankert fühlst. An vielen anderen Stellen, auch bei diesen Generatoren, kann man natürlich sagen, hey, wir können langweilige Dinge untermauern. Das ist was, womit wir zum Beispiel bei der Arbeit gerade rumspielen. Menschen, die langweilige Tätigkeiten machen. Eine Tätigkeit, die eigentlich gut für dich ist, zu untermauern mit etwas, wo es gar nicht darum geht, dass das wahr ist, sondern wo es einfach nur so unterschwelliges Geplänkel ist. Du weißt, es ist gut für dich, wenn du am Tag mal rausgehst und spazieren gehst. Und viele Leute füllen die Zeit mit Podcasts. Ich auch. Und eigentlich ist es gar nicht unbedingt so gut, weil du die ganze Zeit weiter so in diesem Brainy, ich muss jetzt, ich muss jetzt denken, ich muss jetzt verstehen. Du schaltest nicht ab. Du schaltest dann aus Versehen ab und spulst dann 15 Minuten zurück, weil du alles verpasst hast, was die Leute gesagt haben. Wir generieren dir einfach eine Tonspur nebenher, da plätschert einfach nur so ein Narrativ rum, da geht es um nichts. Das hat auch nichts mit irgendwas zu tun. Aber du kannst dich so fallen lassen. Und jemand erzählt irgendwie so Belanglosigkeiten um Du hast so white noise.
SPEAKER_00Ein bisschen.
SPEAKER_02Das ist zum Beispiel was, mit dem wir gerade rumschwimmen und denkt, ja, da kannst du zum Beispiel so ein Generatornetzwerk super einsetzen, weil es geht nicht darum, dass das stimmt. Es geht darum, dass du Vibes vermittelst, die vielleicht zu dem Ort, an dem du gerade wanderst, passen. Es gibt wahnsinnig viele Bereiche, wo man sowas einsetzen kann, wenn man halt weiß, a, wie diese Dinge funktionieren und b, was sie tun. Ich kann mir zum Beispiel vorstellen, dass Situationen, wo es eben um so Spinnen geht und um Fantasie geht und um es geht nicht um Wahrheit. Jetzt drüber nachdenkt, du bist ein Kind und du bist im Krankenhaus und du sitzt da, es ist scheiße langweilig. Natürlich kannst die Leute vor YouTube setzen den ganzen Tag. Soll jetzt halt irgendwie vorher, wenn man Sam guckt, bis die Ohren abfallen. Aber vielleicht willst du es gar nicht. Vielleicht ist da so eine Konversation mit einem Generator, der einfach nur leichte Ideen gibt, um dir den nächsten Trigger zu geben, damit du weiterspinst, weil gerade ist halt niemand da. Das kann schon einen Wert haben. Wenn man das nicht daraus macht, okay, und jetzt guckt die Schwester den ganzen Tag nicht mehr bei dir rein, weil du hast ja diese KI hier laufen. Es gibt ganz viele Systeme, wo man das als Impulsgeber nutzen kann und wo das auch, glaube ich, schon auch einen gesellschaftlichen Wert entfalten kann. Das waren jetzt nur ein paar sehr offensichtliche Beispiele. Man kann es an ganz viele Stellen bringen, sowohl produktiv wie Unterstützungssysteme für ExpertInnen, Unterstützungssysteme für Leute, die vielleicht irgendeine Disability haben oder irgendeine Einschränkung haben. Genauso wie halt in so einem Agenturbusiness, wie ich ihr arbeite, so Designagenturen. Häufig, wenn du halt ein Problem hast, fängst du erstmal so Moodboards zu bauen. Du sammelst so Bilder, die irgendwie dazu passen können. Wir lassen kurz mal die Urheberrechtsdebatte zur Seite, weil die ist auch sehr komplex, aber dann reden wir bis morgen früh. Tun wir mal so, als gäbe es das Problem nicht. Du kannst dir damit sehr schnell Moods generieren. Und da ist auch egal, ob die Leute 17 Finger haben. Es geht ja nur darum, so ein Vibe zu finden. Das kann Vollsinn ergeben. Das ist ein Teil im kreativen Prozess, der dir helfen kann, der dich einfach schneller macht. Weil die Bilder, die du vorher gemalt hast, die hast du auch weggeschmissen. Oder du hast sie auf Pinterest geklaut. Es gibt super viele Bereiche, wo man das einsetzen kann. Aber es geht halt immer darum, zu raffen, dass das Ding Bullshit erzeugt und das nicht zu glauben, sondern es zu benutzen, um einen selber zu verstärken. Aber wir haben da das Problem, was wir immer mit diesen Technologien haben. Schlaue Leute werden durch diese Systeme sehr viel schlauer, sehr viel produktiver, sehr viel selbstwirksamer. Leute mit weniger Ressourcen, Leute mit weniger Ausbildung zum Thema Schlau war eine doofe Vokabel von mir. Ich möchte die bitte zurückziehen, sondern eher Leute, die einfach viel Ausbildung, viel Ressourcen haben, viel Access zu Dingen haben. Die haben einfach die Chance dafür, das so einzusetzen. Du hast gar kein mentales Modell davon, was dieses Ding tut. Die wird nur erzählt, das kann alles, dann macht es dich halt auch nicht besser, dann unterstützt es dich auch nicht, dann macht es dich kleiner, dann beschränkt es deine Möglichkeitsräume, weil es sagt dir, das ist das, was die Wahrheit ist und es ist für dich nicht ein Impuls. Um weiterzudenken, das ist das, wo es aufhört. Es ist nicht der Beginn. Entweder schaffen wir es, dass wir mehr Leute dahin bringen oder alle Leute dahin bringen, dass sie diese Impulse als Beginn des Denkens sehen. Oder wir müssen darüber nachdenken, wie man mit diesem System umgeht. Weil für viele wird es das Ende sein. Es gab so ein Meme von den abwiegenden KI-Experten, die sagten, no, no, AI will not replace you. A person using AI will replace you. Und meine Frage war nur, why the fuck do you want to replace people and their livelihood? What's wrong with you? Warum müssen wir immer Leute replacen? Was ist das überhaupt für ein Narrativ, in das wir uns da begeben? Solange wir in diesen Narrativen gefangen sind, okay, ich benutze das, damit ich besser bin als andere, damit ich sie replacen kann oder damit die mich nicht replacen können. Wenn wir das nur benutzen als Waffe gegeneinander, dann wird das nur zu toxischen Ergebnissen führen. Das sehe ich halt als eine signifikante Gefahr. Und da kommen dann noch diese ganzen, wie du es vorhin erwähnt hast, Huberman, du auch Mary, diese ganzen Klassenbegriffe dazu. Wenn ich es mir leisten kann, habe ich Zugriff auf die besten Netzwerke und nicht nur auf eins, sondern auf zehn und ich habe sogar noch das Netzwerk drüber, was die zusammenführt. Und die anderen müssen nicht das alles selber zusammenklauben, aus den schlechten Versionen. Das wird sich da halt alles an der Stelle fortsetzen. Also A, diese Systeme passen extrem gut in diese verwertende, alles ist ein Excel Cheat Logik. Aus der Welt kommen sie, in der Welt funktionieren sie sehr gut. Das heißt Das, was wir vorhin besprochen haben, als die können der Beginn des Nachdenkens darüber sein, wie wir Prüfungen strukturieren, wie wir Ausbildung strukturieren, wie wir unser Zusammenleben strukturieren, wie E-Mail-Kommunikation funktionieren soll. Whatever. Ich glaube, an dem Punkt kommen wir halt an vielen Stellen nicht, weil die sind das Ende. Die lösen nämlich das Problem in dieser Excel-Welt und wir verlassen die Excel-Welt nicht. Und wir leben in der Excel-Welt und die Excel-Welt passt halt auch zur Verwertungslogik von allem.
SPEAKER_01Das ist so verrückt. In diesem Thema steckt einfach auch schon jetzt mit dem, was wir erleben, wirklich Potenzial, wenn man, wie du sagst, die richtigen Ressourcen im richtigen Kontext und auch da so ein bisschen drin ist, steckt da so viel Potenzial. Aber die Downside, und das ist so die eine Sache, das ist vielleicht so eine persönliche Sorge, die ich habe, ist, dass die Leute, die nicht diese Ressourcen haben, die nicht die Möglichkeit und die das als Werkzeug verstehen, was wirklich Potenzial hat, dass dann dieses statistische Mittel unsere Realität anfängt zu konstruieren, weil wir sagen, ja, das hat das Gerät ja gesagt. Wir haben ja heute schon so, ne, wie funktioniert Ideologie? Es ist so unterschwellig, ne, es ist subversiv, aber es ist halt heute nicht so kodifiziert in so einem statistischen Mitglied. Aber das Ding ist halt, dass aus meiner Sicht ja das, was wir, oder was ich oft als Ideologie verstehe, sich ja richtig krass in diesen Dingern ausprägt und dann ist es kodifiziert und dann wird auch so eine Art, ja, das sagt man so, ne, das ist so und so, irgendwie so Gefühl, Bauchgefühl, dies, das, wird plötzlich kodifizierter Text und dann sagen Leute, ja, aber ist ja so. Das ist so, wo ich mir die Downside vorstelle, wenn das die Realität wird und dann diskutieren wir nur noch über statistische Dinge.
SPEAKER_02Ja, du musstest so sehen. Das letzte Mal, als wir miteinander gesprochen haben, haben wir dann mit wenigen Monaten Distanz überhaupt drei beerdigt. Mal gucken, was dieses Mal passiert. Du hast völlig recht, aber es heißt ja nicht, dass es da stehen bleiben muss. Die Frage wird ja auch sein, was passiert, wenn diese Dinger vor die Wand laufen? Also das ist halt auch nichts, was du beliebig jetzt weiterspielen kannst. Klar kannst du die Anzahl der Parameter immer höher drehen und die Rechenaufwende immer höher drehen. Aber die Dinger sind jetzt passabel, die werden passabler. Richtig toll werden sie auch nie, weil das ist einfach die Struktur des statistischen Mittels so. Irgendwann wird das Ding vor die Wand schlagen. Seit ich studiere oder studiert habe. Also ich fange an zu studieren im Jahr 2000. Schon da hieß es, Self-Driving-Cars sind ein paar Jahre in der Zukunft und dann funktioniert das. Und das ist heute, Self-Driving-Cars sind ja auch Machine Learning. Das ist, wie die sehen. Die sind trainiert auf ihre Kamera, an Sensorbilder und es funktioniert nicht. Es funktioniert seit zehn Jahren nicht, obwohl es immer demnächst jetzt fertig sein soll. Wir sehen, dass dieser Ansatz, den wir da fahren mit diesem Machine Learning, der hat halt seine Grenzen. Der kann bestimmte Dinge und kann bestimmte Dinge auch nicht. Und es wird halt interessant zu sehen, was passiert, wenn halt jetzt der Hype dann irgendwann noch vorbei ist und alle sehen ja, okay, aber die Text sind auch schon so ein bisschen shit. Und natürlich auch ein bisschen Shit. Verändert die Baseline, verändert die Gesellschaft, verändert, was Leute erwarten, was sie erwarten können, was man nehmen kann für Textproduktion als Person, die das vielleicht tut. Alles richtig. Aber irgendwann, wenn den Leuten trotzdem auffallen, habt uns schon was anderes versprochen. Warum kommt das nicht? Und es ist sehr schwer einzuschätzen, was da passieren wird und wie dann die Diskussion sich nochmal ändert.
SPEAKER_01Wenn ich ein Optimist bin, der ich leider nicht bin, würde ich sagen, vielleicht ist das der Punkt, wo wir über diese genau prinzipiellen Themen mal als Gesellschaft uns Gedanken machen und mal diesen Schritt weitergehen. Aber da ich nicht dieser Optimist bin, denke ich, yeah, das wird die Verwertungslogik nochmal ganz gut auf so ein Next Level bringen. Und am Ende reden AI-Systeme miteinander, um uns dann irgendwas mitzuteilen. Vielleicht.
SPEAKER_02Für die Dinge, die wir tun, auf jeden Fall. Du generierst jetzt Text. Und ja, du kannst irgendwie noch mehr auf Kontext gucken, aber das Ding ist immer noch ein statistischer Token-Generator. Das wird dich nie überraschen können mit einem tollen Text. Das wird nie wirklich literarisch was Neues tun oder was Kreatives tun, außer irgendwas kaputt gegangen, dann kann das mal als Exit passieren. Das ist aber auch ein leichter Tod, um ehrlich zu sein. Die Dadaisten damals, die haben ja ganz bewusst Sprache kaputt gemacht. Weil sie sagt, komm, jetzt fuck all of this. Jetzt könnte man sagen, ja, könnt ihr ja ein neuronales Netz auch, aber die haben ja damit ganz bewusst was gemacht. Diese Form von Überraschung kann das Ding nicht erzeugen, weil die Stoßrichtung überhaupt nicht da ist. Dass ein spezieller technologischer Ansatz irgendwann an seine Grenzen schlägt, ist jetzt auch nicht überraschend. Das ist halt so. Webseiten können auch nur so und so viel tun. Also wenn du Webseiten anfassen wirst, wird es halt irgendwann schwierig. Das ist eine Grenze des Systems als solche. Das heißt, dass es nicht weitergehen wird im Bereich künstlicher Intelligenz. Heute sehen wir ganz viel so, das eine Netz, Chat-GPT, das Netz. Und da schiebst du vorne was rein, hinten kommt was raus und jetzt GPT vor, da kannst du sogar ein Bild vorne reinschieben und dann wandelt das das halt in die Zahlen um und spuckt hinten was raus. Mein Bauchgefühl, und I'm not an expert, ist, dass es eher darauf hinauslaufen wird, dass wir diese Savant-Systeme, die ganz bestimmte Dinge können, die werden sich irgendwann kapseln und die wirst du zusammenstecken. Hier hast du ein Ding, das erkennt, mit einer gewissen Zuverlässigkeit, die dir dein Lieferant auch garantiert, bestimmte Objekte in einem Bildstrom. Und das benutzt du vielleicht noch mit einem anderen Netzwerk, was was anderes erkennt. Und darüber setzt du dann vielleicht sogar so ganz bewusst gesetzte, regelbasierte Systeme. Und so ein Zusammenspiel aus kontrollierbaren, auch auditierbaren, regelbasierten Systemen und Machine Learning-Systemen, wo du jeweils die Stärken des einen mit den Stärken des anderen kombinierst oder um eben die Schwächen des einen mit dem anderen auszugleichen. Das ergibt einfach viel Sinn. Und ich kann es nicht genau sagen, wie OpenAI gerade ihre Filter baut. Mein Bauchgefühl ist, dass da auch viel regelbasiertes Zeug drin ist. Es gab ja diesen Time Report, wo man halt sah, die haben halt extrem viele Leute in Kenia bezahlt für einen Hungerlohn, damit sie halt sich diesen ganzen Shit angucken mussten und mal sagen müssen, das ist Shit, das ist Shit, das ist Shit. Natürlich können die auch Netze trainiert haben, die das machen, aber auch vieles davon kann man regelbasiert machen. Und ich glaube, dass wir das sehr viel sehen werden, weil auch der Anspruch von Leuten auf eine gewisse Verlässlichkeit höher werden wird. Wir sprachen vorhin darüber, dass wir in so einer Welt leben, in der alles in diese Excel-Logik passen muss. Alles muss halt auf diskrete Werte runtergebrochen werden, damit es in die Prozesse passt. Ich muss halt eine Zahl haben, wie viel das wert ist. Und dann erfinden wir für alles Dinge, um es im Geld auszudrücken. Das ist zum Beispiel was, was diese Machine Learning-Systeme extrem gut können. Die nehmen halt diese ganze Fussiness der Welt und machen dir eine Zahl draus, auf Basis von Statistiken. Das würdest du regelbasiert wahrscheinlich nicht einfangen können. Und du kannst diese Machine Learning-Systeme extrem gut als Adapter dieser Softwarelogikwelt an die reale Welt benutzen. Die schaffen das, die reale Welt runterzubrechen auf diese Mickey-Maus-Welt, in der halt Softwareprozesse arbeiten. Ich glaube, das wird sogar noch eher unterschätzt, gerade wie prägend das, glaube ich, in der Zukunft sein wird. Das heißt, du wirst weiter in einem SAP deine Buchungsprozesse haben, die willst du auch auditieren können, da willst du zeigen können, dass die stimmen. Aber davor hängt irgendwo so ein Machine Learning-System, was bestimmte Dinge in diese Logik reinquetscht und alle Leute dazu bringt, sich dieser Logik unterordnen zu müssen. Bisher haben die Leute die Zahl dann Handvoll Hand eingegeben und konnten es halt so ein bisschen managen. Das ist dann vorbei. Und da wird die KI quasi auf die Leute zurückwirken. Das ist derselbe SAP-Prozess, den sie unterworfen sind, aber ihr letzter Einflussfaktor ist weggegangen. Und jetzt ist halt nur noch diese strukturelle Gewalt dieses Prozesses und dieser Organisation, die auf sie herunterwirkt. Ich glaube, dass das wird fast noch mehr Breitenwirkung haben als diese spam-generierenden Netzwerke.
SPEAKER_01Nur für mein Verständnis, also sagst du, es gibt wirklich so eine Art Ceiling. Irgendwann ist sozusagen so die Magic-Ebene erreicht, weil aktuell auch wieder na, wenn man da auf diesem einen Social-Media-Kanal, LinkedIn, unterwegs ist, keine Ahnung, letztens hat einer gepostet, keine Ahnung, es hat so viele neuronale Netze wie ein Wal. Stell dir mal vor, es hätte zehnmal oder tausendmal so viele neuronale Netze, dann kommt es uns näher. Das ist da so ein bisschen die Argumentation, das ist schon krass, aber wir können immer krasser werden und dieses krasser ist sozusagen linear im Krasswertum. Also wie ich das bei dir so ein bisschen hast, irgendwann gibt es so ein Ceiling, da kann man so viel mehr neuronale Netze reinpacken, wie man will. Erreicht es dann irgendwann so ein Cap?
SPEAKER_02Vielleicht. Ich meine, das Ding gibt dir halt eine Antwort, aber die Antwort ist halt irgendwas. Der sagt dir mit dem Brust zu der Überzeugung, die Antwort ist 42. Und der generiert ja auch sofort die Frage hinterher. Aber nothing means anything. In Douglas Adams Welt war das jetzt implizit gedacht, das ist wirklich die Antwort. Und wir haben vergessen, nach der Frage zu fragen. Aber die gibt es dann irgendwie auch. Aber in dieser Welt hier ist die beste Antwort, die OpenAI für dich generieren kann für 20 Euro im Monat.
SPEAKER_01Ich möchte noch eine Sache so als Ironie mal kurz droppen, dass wir gerade in eine Zukunft rennen, wo wir bei Douglas Adams per Analter durch die Galaxis sind, dass wir einen Computer bauen, der uns die Antwort auf alle Fragen, der was weiß ich was, ausspuckt mit der Zahl 42 und wir dann uns überlegen, wir brauchen einen Computer, der die Frage stellt.
SPEAKER_00Sehr gut. Ich wollte noch eine Sache hinterherschieben, weil du bisher noch meintest quasi, ne, das kann nicht überraschen.
SPEAKER_0142? Vielleicht.
SPEAKER_00Ich glaube, man muss das auf die Ebene von Wer wird überrascht, kurz auseinanderklamüsern. Weil mich als Individuum kann das sehr wohl überraschen. Also ich kann überrascht werden davon. Aber ich glaube, du hattest da da als Beispiel, dass daraus eine Bewegung wird, dass es da eine Verbindung gibt über mehrere Menschen hinweg. Da, glaube ich, kommt dann schon das Gesamtheitliche auch nicht mehr, das Emotionale, der Bauch, der Rücken und so weiter und so fort dazu, dass das etwas ist, was jetzt nicht im technischen Sinn unbedingt, aber was die Menschheit quasi vorantreibt. Also was quasi irgendwie größer überraschend ist. Das ist, glaube ich, das, was daran fehlt. Weil also ich kann daran ja sehr wohl überrascht werden, weil keine Ahnung, ich weiß ja nicht, was statistisch das Ding wäre.
SPEAKER_02Ich habe natürlich auch einen harten Bias als Informatiker, der sich seit sicherlich 20 Jahren mit diesem Scheiß beschäftigt.
SPEAKER_00Ja, weil ich höre nämlich jetzt schon ganz viele Leute sagen, hä, es war total überraschend. Ich habe damit rumgespielt und ich war so, huch, was geht denn ab? Das ist ja total lustig, was das gemacht hat. Er hat deinen Witz generiert. Als Individu werde ich sehr wohl überrascht, aber das Größe fehlt halt, ja.
SPEAKER_01Lustigerweise habe ich heute zweimal in getrennten Situationen von Leuten gehört, die hätten ihm gebeten, einen Witz zu machen und hätten den Witz dann gegoogelt. Sie haben keinen originären Source dieses Witzes gefunden. Und da war die Logik, hat er sich ein Witz ausgedacht?
SPEAKER_00Ja, aber er hat ihn sich nicht ausgedacht.
SPEAKER_02Die Frage ist halt, was bedeutet Ausdenken? Viele Witze basieren ja auf so einer Überraschung. Jetzt kommt eine Doppelbedeutung oder eben ein Begriff, der nicht normal wäre und sowas kann man natürlich statistisch schon als Struktur ablesen. Okay, und jetzt kommt hier genau die nicht wahrscheinliche Lösung dafür oder sowas.
SPEAKER_01Ja, genau, aber die meinten so, der Witz hat aber nirgendwo existiert. Also die Pointe ist neu und so weiter. Meine Logik war, die Struktur des Witzes war doch wahrscheinlich vorgegeben oder es kann sich ja den Witz nicht neu ausdenken.
SPEAKER_00Also es denkt sich nicht Witz neu aus, aber diese eine Instanz des Witzes, die ist neu. Es muss ja nicht den Witz vorher schon gegeben haben. Viele Witze folgen ja auch ähnlichen Strukturen. Aber dass diesen einen Witz nicht im Internet auffindbar vorher gab, das ist ja jetzt nicht überraschend bei der Art und Weise, wie das funktioniert, oder? Sonst würde es ja einfach nur suchen nach einem Witz.
SPEAKER_02Das Problem, wenn wir halt diese Netze erklären oder versuchen über sie zu sprechen, wir projizieren da auch schon immer so eine Intentionalität drauf. Sagen, okay, und dieses Neuron, das steht für Katze und dieses Neuron steht für Human. Aber so funktionieren diese Dinger ja nicht. Das ist ja ein Gesamtnetz, in dem so statistische Realitäten abgebildet sind. Von daher ist eben auch schon unsere Sprache über diese Dinge zu sprechen, ist so. Die projiziert schon Dinge drauf, die nicht da sind und verschleiert uns so ein bisschen den Blick auf das, was da eigentlich passiert.
SPEAKER_00Du hast recht, wir sind wieder am Anfang. Wir interpretieren das als Witz.
SPEAKER_02Tut mir sehr leid.
SPEAKER_00Wir erwarten einen Witz und quasi am Ende sind auch wir, die das lesen quasi und daraus dann einen Witz machen. Weil das Ding hat nicht den Humor da drin, sondern wir machen den Humor da rein. Ich habe super, super viel gelernt. Wir haben eine Shownotes-Liste, die lange dauern wird, abzuarbeiten, wenn sich jemand wirklich durcharbeitet. Und es war super krass interessant. Also ich muss sagen, ich laufe eigentlich nicht so pessimistisch hier raus. Aus unserem letzten Gespräch hätte ich jetzt erwartet, das ganze Ding wird jetzt richtig gecrashed und quasi, es gibt keine Hoffnung, dass da irgendwas Positives dran ist. Aber ich muss sagen, also so laufe ich jetzt nicht raus. Wir haben angefangen mit Intelligenz und auch direkt mit dem Göttlichen. Quasi, was ist da eigentlich drin mit diesem magischen und dieser Überhöhung und dass man vielleicht auch gar nicht unbedingt wissen will, wie das funktioniert, sind dann aber doch in die Funktionsweise eingestiegen und dann eigentlich zu allen Implikationen gekommen. Also wir haben auch viel über Anwendungsgebiete gesprochen, aber wir sind dann auch nochmal sehr tief in die Ethik des Ganzen gegangen, in soziale und politische Fragen, die da dranhängen und am Schluss, wie so häufig, beim Kapitalismus gelandet und haben uns danach nochmal, ich weiß gar nicht, wie man den letzten Teil kategorisieren sollte. Vielleicht sind wir wieder zurückgekommen, eher zum magischen, aber ich habe auf jeden Fall super viel gelernt. Vielen, vielen lieben Dank.
SPEAKER_02Vielen Dank fürs Einladen und Entdulden meiner langen und manchmal etwas von Pfad abkommenden Ramblings.
SPEAKER_01Nein, das ist doch genau das Tolle daran. Und ich frage mich gerade, was wird wohl das nächste Hype-Thema sein, wo wir uns dann wahrscheinlich wieder zusammensetzen und zu schauen, wie sehr ist das Hype oder nicht? Hast du schon eine Prognose? Ich hatte mal irgendwann mal schon ewig fair, vor sechs Jahren gab es ja, es gibt ja immer diesen Gartner-Tech-Hype-Cycle. Und dann weiß ich noch, da stand so, dass irgendwie in den nächsten zehn Jahren kommt Smart Dust. Schlauer Staub. Wenn der schlaue Staub da ist, dann sollten wir es wieder spätestens zusammensetzen.
SPEAKER_02Genau. Über Ambient Intelligence und Computing und Smart Tech kann auf jeden Fall einer der nächsten Hypes werden, weil man die so schön mit KI kombinieren kann.
SPEAKER_01Hervorragend. Ja, ich habe auch schon gesehen, es gibt schon AI, die automatisch NFTs produzieren und auf Krypto-Dinger setzen. Alles geht mit allem, nichts muss.
SPEAKER_00Ja, weil das ist nämlich total wichtig, die Künstler zu schützen und quasi den digitalen Kunstmarkt gut in geregelten Bahnen abwickeln zu lassen, damit wahre Künstler ihr hart verdientes Geld verdienen. Weil darum geht es bei NFTs. Nur um die Künstler, um sonst nichts. Es geht nicht um schnelles Geld.
SPEAKER_01Dist du gerade die NFT-Bros? Also ich finde das wirklich interessant, weil es ist so ein Spin, den man häufig hört. Die NFT-Bros mit ihrem Anpatch.
SPEAKER_02Der Chef von Stability AI, die Stable Diffusion, auch so einen Bildgenerator gebaut haben, der wurde halt auch darauf angesprochen und sagen, ey, du hast dir die ganzen Bilder gescrapt von KünstlerInnen, die haben da richtig Arbeit reingesteckt und das ist auch ihr Lebensunterhalt und du machst es jetzt so weg, what the fuck? Und der so, nee, das ist völlig okay, weil da geht es um Gleichberechtigung. Bisher waren halt die Künstler so privilegiert, weil die konnten sich halt in Bildern ausdrucken. Und jetzt können sich halt alle in Bildern ausdrücken. Also was ich hier tue, da geht es um Menschheit und um die Rechte aller und so. Also diesen Spin liest man extrem häufig eigentlich bei diesen Firmen, dass sie sagen, das ist nicht nur die Rettung des Kunstmarkts, sondern das ist der Zugang für jeden zum Kunstmarkt.
SPEAKER_01Sehr geil. Ohne die Arbeit. Genau. Den hart erarbeiteten Skill, den muss doch jeder haben, auch wenn er es nicht die Arbeit da reingesteckt hat. Ich liebe diese Menschen.
SPEAKER_00Ja, auch darüber habe ich gestern mit dem Fotografen gesprochen. Also ich würde schon sagen, das ist ein Ding, ne? Also ich hatte letztens was im Kopf, von dem ich wusste, ich kann das nicht zeichnerisch umsetzen. Und ich habe das dann quasi da reingegeben und dann irgendwie dreimal iteriert, bis das was war, wo ich dachte, das kommt dem richtig nahe. Also das ist quasi das, wo ich sagen würde, wenn ich das jemandem zeigen würde, das ist, was ich meinte. Und das stimmt natürlich, dass ich jetzt visuell anders kommunizieren kann, das konnte ich in der Form vorher nicht. Kann ich damit jetzt. Aber das ist ja nicht eine Art von Gleichberechtigung in der Kunst, sondern das verkürzt ja Kunst. Das ist doch Kommunismus, oder? Wäre jetzt mein Argument.
SPEAKER_02Erstens verkürzt es Kunst und es generiert dir etwas, bei dem du dann reaktiv sagst, stimmt, das wollte ich sagen. Aber es ist natürlich die McDonalds-Version davon. Wenn du mit jemandem Künstler wirklich oder einer Künstlerin dich zusammensetzt und denen so eine Idee gibst und dann kommen die mit was zurück, das wird nie das sein, was du so gemalt hättest. Das ist es.
SPEAKER_00Ja, fuck. Genau, und das ist, ja, ja.
SPEAKER_02Genau. Es gibt auch Leute, die malen sich ihre eigenen Tattoos und lassen sich das nur handwerklich stechen quasi. Aber häufig ist ja der Punkt, man hat so eine halbe Idee, ist auch scheiße eigentlich. Man geht da nur mit so Fragmenten hin und dann kommt eine Person zurück mit irgendwas, ja, genau das, Dankeschön. Das kann dir auch das nicht generieren, weil diese Kommunikationsebene.
SPEAKER_00Auch wenn du selber Kunst machst, kommt am Ende meistens nicht das raus, was du vorher im Kopf hattest, weil quasi der Prozess des Erstellens ist ja Teil des Schaffens.
SPEAKER_01Das geht doch wieder zurück zu dem Neoplatonismus. Die Idee, es gibt die Essenz. Das ist sozusagen die Abkehr von dem Weg. Ich bin ja hier so ein bisschen philosophisch so bei dem guten Dizek. Und durch Sprache scheitern wir, uns auszudrücken und versuchen uns ja immer wieder einzufangen, was wir gesagt haben, um wir selbst zu sein. Das könnte man genauso bei Kunste nehmen. Sprache ist im Grunde das Scheitern unseres Subjektes, sich auszudrücken. Aber durch das Scheitern werden wir. Die haben ja genau das Gegenmodell, die Gegenidee. Sie ist eine Barriere, die wir überwinden müssen. Aber sie verstehen nicht, dass die Barriere selbst uns konstituiert. Genau wie es geht nicht um das Bild, sondern die Barriere ist, das das Ding erzeugt. Und ich glaube, das ist natürlich ein ganz anderer Weltblick, darauf zu denken. Es gibt so ein Ding an sich so. Und wir müssen eigentlich den Menschen überwinden, um es zu erreichen oder so. Und das ist da schon ein bisschen herausfordernd wahrscheinlich, einige dieser philosophischen Ideen.
SPEAKER_02Aber entschuldige, Mary, du warst gerade beim Zusammenfassen, jetzt haben wir noch ein Fass aufgemacht. Das ist furchtbar.
SPEAKER_00Aber ich glaube, das war nochmal ein schöner Impuls, auch den Podcast zu beenden. Und darüber können wir jetzt alle schön weiter nachdenken. In diesem Sinne, macht's gut und einen schönen Abend oder an die Hörer und Hörerinnen, Tag, Nachmittag, morgen, wo auch immer ihr steckt.
SPEAKER_01Ciao. Adios. Money, money, I want more, money, I want more.
unknownI don't even know why. Why? Why?