Corporate Therapy

Episde # 143 // Is The Internet Already Dead // mit Marie Kilg

Human Nagafi, Mary-Jane Bolten, Patrick Breitenbach

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 1:37:01

Schickt uns euer Feedback zur Episode

Das Internet fühlt sich plötzlich fremd an: zu glatt, zu voll, zu laut und manchmal so künstlich, dass wir selbst echten Menschen nicht mehr trauen. Wir nehmen die Dead Internet Theory ernst, ohne in Verschwörung abzurutschen, und schauen stattdessen auf die Resultate: KI-Slop, Content-Farmen, Bots, Propaganda und eine Aufmerksamkeitsökonomie, die Masse belohnt statt Sinn. Wenn Kommunikation ohne echte Intention entsteht, kippt der Diskursraum und es wird immer schwerer, „gute“ Informationen zwischen den Klatschblättern zu finden.

Gleichzeitig verlagert sich Vertrauen ausgerechnet zu LLMs wie ChatGPT, Claude oder Perplexity, weil sie den Informationsdschungel scheinbar filtern. Wir sprechen darüber, warum das LLM damit zum Gatekeeper wird, wie sich SEO Richtung GEO verschiebt, und weshalb der Wettbewerb der KI-Firmen strukturell zu Monopolen drängt. Dual-Use, Government-Contracts und „too big to fail“ sind nicht nur Schlagworte, sondern echte Pfade, über die KI-Infrastruktur staatstragend werden kann. Hinter dem Hype liegt zudem viel menschliche Arbeit: RLHF, Clickworker und eine „polierte“ Oberfläche, die Desinformation genauso glattziehen kann wie hilfreiches Wissen.

Wir bleiben nicht im Doom hängen, sondern suchen konkrete Gegenentwürfe: Transparenz, Open Source, Datensouveränität sowie EU-Regeln wie Digital Services Act und Digital Markets Act. Und wir zeigen, wie KI auch anders wirken kann, etwa als Moderations- und Auswertungswerkzeug für bessere Diskussionen, inklusive unserer kleinen Habermas-Maschine im Unternehmensalltag. Zum Schluss wird es praktisch: Welche neuen Kompetenzen brauchen wir, um Blackbox-Autorität zu widerstehen, Outputs einzuordnen und Ziele sauber zu setzen, ohne Lernarbeit und Urteilskraft zu verlieren?

SPEAKER_05

Wenn wir es hinkriegen, das nachhaltig zu machen, dann ja, dann Data Centers in Space und keine Ahnung und so viel Rechenleistung wie wir halt brauchen, wenn man halt auf der anderen Seite mitdenkt, was es kostet. Nicht nur was es sein Geld kostet, sondern halt auch, was es den Planeten kostet. Was ist geil? Rechnen ist geil. Können alle mehr rechnen. Mega.

SPEAKER_01

Hallo und herzlich willkommen zurück zur Corporate Therapy. Ich freue mich ganz besonders, weil wir heute eine Anschlussfolge machen. Aber bevor wir ins Thema einsteigen, mache ich erstmal alle Begrüßungen sauber. Und damit fangen wir erstmal an mit Patrick. Hi Patrick, schön, dass du hier bist.

SPEAKER_00

Hallo Mary Jane. Schön, dass ich hier sein darf, kann.

SPEAKER_01

In deinem eigenen Podcast. Herzlich willkommen. Für alle, die uns nicht kennen und zufällig heute zum ersten Mal Corporate Therapy hören, wir sind ein kritischer Management-Podcast. Wir beschäftigen uns mit allen Themen, ich würde mal sagen, grundsätzlich so rund um Arbeit, aber auch alle angrenzenden Themen, Wirtschaft, Politik, Gesellschaft, die uns im Arbeitskontext irgendwie berühren. Und das machen wir manchmal alleine, also quasi Patrick Humann und ich. Und manchmal machen wir das mit verschiedenen Gästen. Und heute haben wir auch wieder einen Gast und zwar jemand, der schon mal hier war. Das bedeutet, ihr könnt alle jetzt zwei Folgen zurückgehen einmal und euch den Podcast über das Internet anhören. Und heute kommt Teil 2 mit Marie Kilk. Hi Marie, schön, dass du wieder hier bist. Hi, guten Morgen. Und falls irgendjemand nicht zurückgehen möchte und die Folge anhören möchte, sondern sagt, nein, ich bin jetzt in dieser Folge, hier bleibe ich auch. Marie, du bist Journalistin und Speakerin und du sprichst und denkst nach und probierst aus, alle Themen rund um Technologie und Mensch und wie diese beiden Sachen zusammenwirken. Ist das eine gute Beschreibung?

SPEAKER_05

Genau, ich spreche und ich denke und ich lese und ich schreibe und ganz viel KI und Medien vor allem.

Dead Internet Theory Explained

SPEAKER_01

Sehr gut. Ja, und damit hast du das Thema auch schon eingeläutet. KI und Medien ist, glaube ich, der richtige Überbegriff. Beim letzten Mal haben wir darüber gesprochen, wo steht eigentlich das Internet gerade so und wie hat sich das entwickelt über die letzten seit es gibt. Und als wir aufgehört haben zu Podcasten, haben wir dann danach noch so ein bisschen gequatscht. Und Patrick meinte, ja, total toll, aber ich habe meine Sachen auf meiner Liste alle gar nicht angesprochen. Turns out, wir glauben, es macht Sinn, nochmal eine Folge zu machen darüber, wie KI das ganze Konstrukt Internet verändert. Die große Arbeitsfrage, die wir uns gegeben haben, ist, macht KI das Internet kaputt? Kann sein, kann sein nicht. Und um das Ganze ins Rollen zu bringen, ist meine Frage an euch, ist das Internet nicht sowieso schon kaputt oder tot? Denn es gibt seit, ich glaube, seit 2020 oder 2021 eine in Anführungsstrichen Theorie, nämlich die Dead Internet Theory. Und sie sind deswegen in Anführungsstrichen eine Theorie, weil sie aus einem Reddit-Forum kommt. Also sie hat keinen großen Unterbau, sondern es ist sozusagen eine These, die mal in den Raum geworfen wurde und jetzt sehr in zwei Richtungen abdriftet. Und ich glaube, die eine Richtung sollten wir uns vornehmen. Also die zwei Richtungen sind Nummer eins, das Internet ist sowieso schon nicht mehr ein Ort von Menschen für Menschen, sondern so von Bots durchdrungen und von kapitalistischen Interessen durchdrungen, dass es eigentlich kein Raum mehr ist, in dem man sich frei aufhalten kann. Also zum Beispiel Wahlmanipulation durch Bots. Wir haben da sowas wie bei Brexit quasi über 50 Prozent des Contents während der ganzen Brexit-Vor-Geschichte war wohl botgenerierter Content. So, das ist der eine Teil und der andere große Teil ist quasi durch das ganze Influencertum, dass Kommunikation von Individuen auch nicht unbedingt authentische Kommunikation ist. Und deswegen quasi dieser Raum ein extrem manipulativer Raum ist und ist damit nicht eigentlich das Internet, so wie wir es ja auch beim letzten Mal besprochen hatten, so als Ideal, als Idee, als Diskursraum, wir haben ja auch schon gesagt, so ganz gültig ist das eigentlich nicht, ist das nicht eigentlich eh schon tot? Und jetzt habe ich gesagt, es gibt noch eine zweite Reihe und da müssen wir, glaube ich, so ein bisschen eine Klammer drum machen, weil es ist aus einem Reddit-Forum entsprungen. Entsprechend geht das schnell los in die Richtung Verschwörungstheorien. Ist das alles so gewollt? Also ist das eigentlich Regierungsmanipulation sozusagen, um uns alle irgendwo zu halten. Wenn ihr möchtet, könnt ihr da auch gerne drüber sprechen. Weiß ich nicht. Aber die Frage, die ich euch eigentlich stellen möchte, ist, ist das Internet nicht eh schon tot?

Communication Without Human Intent

SPEAKER_05

Interessant. Also erstmal finde ich, manchmal kann man über Verschwörungstheorien sprechen und man muss gar nicht wissen, ob das so gewollt ist von irgendeiner bestimmten Person oder Gruppe, sondern man kann sich einfach die Resultate angucken. Manchmal sind die Resultate dieselben. Egal, ob es gewollt ist oder ob es quasi eher so ein System ist, das das hervorgerufen hat. Ich kannte die Internet-Theory gar nicht, so wie du sie jetzt beschrieben hast, auch als quasi so erweiterte Definition von, was ist überhaupt ein Bot, also auch sich maschinenhaft verhaltende Menschen sind irgendwie auch Bots. Und das ist gerade was, was ich total stark sehe. Also wo ich jetzt wirklich, gerade in den letzten Tagen habe ich ein paar Insta-Reels gesehen, wo mir einfach so klar war, da ist zwar ein Mensch, aber der liest vor, was Chat-GPT eben geschrieben hat und das merkst du einfach an der Art, wie der Text formuliert ist. Und dann dachte ich plötzlich so, wow, ist es wirklich so ein neues Level von Kommunikation im Internet erreicht, das nicht nur alles sich auf Video ausrichtet, was sich früher vielleicht dann mehr an Text ausgerichtet hat und ganz, ganz, ganz früher in der Menschheitsgeschichte noch gar nicht Text war, sondern verbal war, sondern das Neue ist jetzt, und das kommt mir wirklich wie ein richtiger Paradigmenwandel vor, das ganz viel kommuniziert wird, ohne eine kommunikative Intention von der Person, die das kommuniziert. Okay, jetzt bin ich schon direkt super tiefer eingestiegen, aber den Gedanken wollte ich direkt mal reinwerfen. Also ja, was wir sehen, ist, Leute lesen KI-Content vor. Und zwar, ich glaube, nicht, weil sie denken, sie müssen jetzt was Bestimmtes vermitteln, sondern weil sie hoffen, dass das im Algorithmus erfolgreich wird.

SPEAKER_00

Da ist ja fast schon die Anschlussfrage, warum lesen sie überhaupt noch vor? Weil letztendlich kann ich ja auch selbst das artificiell reproduzieren.

SPEAKER_05

Das noch teurer.

SPEAKER_00

Wahrscheinlich, wobei, wenn man technisch einigermaßen bewandert ist, würde man das wahrscheinlich auch ganz gut kostengünstig hinbekommen. Aber ja, es kostet ja zumindest dann Zeit und so weiter. Weil ich habe jetzt die letzten Tage ein Video gesehen, was mich so ein bisschen vom Stuhl gehauen hat. So ein Typ, der irgendwie hunderte Agenten für sich arbeiten lässt und komplett Content-Produktion von vorne bis hinten. Er muss gar nichts machen. Er sitzt nur vor seinem Bildschirm, hat irgendwie so eine Visualisierung von seinen Agenten, das dann auch so im netten Comic-Stil irgendwie, aber einfach nur, weil es nett aussieht. Und die produzieren für ihn Videos, Thumbnails, Etsy-Produkte. Und er flutet sozusagen das Internet mit seinen hunderten Agenten und verdient damit, weiß ich nicht, ein paar 5000, 6000, 8000 Dollar, je nachdem im Monat. Und er macht selber gar nichts mehr, außer die Agenten Setup zu machen. Und generiert sozusagen darüber dann sein passives Einkommen, mit dem Nebeneffekt, dass natürlich das Internet geflutet wird von sehr viel Slop und Dingen. Und was er auch zur Folge hat, und darüber können wir ja auch nochmal ein bisschen mehr sprechen, es findet dadurch ja auch eine Form von Verdrängung statt, nämlich von einer anderen Form von Kommunikation und auch einer anderen Form von Wertschaffung, wenn man so will. Und für mich ist tatsächlich auch die Frage, auch als du Marie gerade darüber gesprochen hast, für mich ist es ja immer so, es gibt ja keine unbefleckte Kommunikation, wenn man so will. Also im Sinne von, alles ist ja immer schon beeinflusst gewesen, kommunikativ von was anderem. Und wir hatten es ja, glaube ich, in der ersten KI-Folge gemeinsam, schon dieses Thema, ja, damals gab es halt auch schon Stichwort Verschwörungstheorien, die erstmal oral verbreitet wurden, später dann mit der Buchpresse und so weiter. Also auch dieses Phänomen Manipulation, Propaganda, Macht, Herrschaft ist ja nichts Neues. Sondern was hier ja gerade passiert, ist ja eher eine Zuspitzung, Beschleunigung, Vereinfachung, Überflutung, die man vielleicht beobachtet. Und vielleicht ist sozusagen eher dieser Ausdruck, den man dafür finden konnte, sowas wie poliert. Also die Kommunikation wird eher poliert und damit werden aber auch Fehler poliert und Desinformationen poliert. Und da würde ich später gerne auch nochmal mit euch drüber sprechen, was das für neue Kompetenzen eigentlich erfordert, wenn wir eher wieder in die Gegenrichtung wollen, in Richtung Aufklärung und das, was wir ja auch beim letzten Mal besprochen haben, was sozusagen dagegen stehen würde. Also sprich, ja, ich würde dieser Dead Internet Theory dahingehend zustimmen, diese ganzen Systemlogiken. Und da wäre ich auch bei Marie zu sagen, es ist irrelevant, ob es Verschwörung ist. Verschwörung ist für mich immer so was, ein paar Leute im Zigarrenzimmer sitzen zusammen und schmieden Pläne und sagen, so machen wir das. Das ist meistens nie der Fall, manchmal vielleicht. Aber bei diesen großen Sachen eben nicht, sondern es sind strukturelle systemische Phänomene. Systemlogiken, die halt so ablaufen. Also dass wir eine Profitlogik haben, führt dazu, dass Leute eher dazu angeregt werden, Geld verdienen zu wollen und damit alles zu tun, damit sie das tun können. Und wenn diese Logiken so ineinandergreifen und Technologien dazu führen, dass das noch verstärkt wird, haben wir am Ende eben genau diesen Effekt.

SPEAKER_01

Ja, bin ich bei dir. Also ich finde trotzdem aber diesen Gedanken interessant, quasi diese Kommunikation ohne kommunikative Intention. Also passiert dadurch, also das alles, was du ja auch jetzt als Slot bezeichnet hast, Patrick, also das ist ja genau das, dass man sagt, man produziert einfach etwas und dann ist es einfach da, aber es hat irgendwie gar keinen Zweck in der Welt.

SPEAKER_00

Zweck wäre Profit. Also Zweck.

SPEAKER_05

Genau, also Zweck nur Aufmerksamkeit und da, also nur Profit Aufmerksamkeit, genau, aber keinen kommunikativen Zweck in dem Sinne.

SPEAKER_01

Und ich glaube, da sind wir gerade an so einer lustigen Limbo-Übergangsschwelle von dem, was du gesagt hast, Patrick. Wir haben ein ökonomisches System, in dem Leute natürlich auch zum Teil das Gefühl haben, dass sie nicht genug abbekommen durch reguläre Dayjobs und so weiter und auch diese ganze, aus den letzten Jahren, diese Entrepreneurship-Bubble und so weiter und so fort. Und jeder sollte für sich und eine Vier-Tage-Woche und alle diese Träume, die da mitschwangen. Und jetzt hat man auf einmal Tools, um das möglich zu machen, weil alle auf einmal eine Rechenpower haben, die sie vorher nicht hatten und Sachen in Zeitabständen durchführen können, die ja, sorry, aber also vor eineinhalb Jahren komplett utopisch waren. Also ich könnte ja nicht jetzt losgehen und irgendwie ein Video drehen, wo jemand, weiß ich nicht, Skydiving macht von einem Frankfurter Hochhaus und sich dann in eine Taube verwandelt und im Bahnhofsviertel landet oder so. Jetzt kann ich das machen. Also und auch zu einem relativ günstigen Preis. Also es ist schon, der Zugang zu diesen Sachen ist ja krass niedrig jetzt. Aber jetzt haben wir quasi dieses, manche Leute nutzen das einfach und machen dann richtig, richtig viel, weil ich glaube, die Aufmerksamkeitsökonomie sich noch nicht angepasst hat daran, dass jetzt einfach da super viel ist. Das heißt, einfach nur Masse ist jetzt der Zugang. Und dann hat man aber auf der anderen Seite, also wenn, also das ist jetzt quasi die eine Seite, wo ein Individuum das für sich nutzt, um einfach Geld zu verdienen, irgendwie so. Und die andere Seite ist aber ja schon die, und da sehen wir ja schon, dass die Menschen nicht mal mehr vorlesen, sondern dass es wirklich komplett generierte Videos sind, die, ich muss echt sagen, ich habe wahnsinnig Probleme, die zu erkennen, zum Teil. Also manchmal komme ich mir Reels an mit meinem Freund und dann lache ich irgendwas und dann gucke ich an, meinte so, Mary, KI. Und ich so, ah ja, okay, sorry. Meine Freundinnen schon. Also, ne, also das, aber ja, also wie gut ich das erkennen kann, ist extrem unterschiedlich. Also es ist wirklich nicht cool. Und da gibt es ja wahnsinnig viel schon, und das kommt sehr viel auch von rechts, wo dann irgendwie, weiß ich nicht, junge, hübsche Mädchen irgendwelche Aussagen treffen darüber, wie sie aber eigentlich gerne total traditionelle, konservative Dingsbums hätten. Und dann guckt man in die Kommentare und sieht, da sind so Scharen von AfD-Anhängern, die da irgendwie sagen, ja, total toll, Gott sei Dank gibt es noch solche Leute und so. Und das ist aber keine echte Person. Also es ist einfach nicht in echt. Und da ist ja sehr viel Intention dahinter, auch wenn das quasi auf den ersten Blick so aussieht, als ob jemand einfach nur so random Sachen erzählt. Aber es ist ja auf jeden Fall 100% intentional und eben nicht mehr mehr an eine Person geknüpft, die tatsächlich selber was sagt, sondern da ist dann, glaube ich, schon Maschine dahinter.

LLMs As New Gatekeepers

SPEAKER_00

Also vielleicht was zu dieser Flut an Content. Ich empfehle an der Stelle auch den hervorragenden Doku-Film von Mario Sixtus rund um das Thema AI, AI-Slob, irgendwas. Ich habe den genauen Titel nicht mehr, war, glaube ich, bei Ate immer mal wieder in der Mediathek, wo ja auch die unterschiedlichen Varianten des Massenproduzierens von KI-Inhalten dargestellt wird. Einerseits aus reinen Profit-Logik-Interessen, andererseits aus Propaganda-Interessen. Was ich spannend finde, ist, dass bei mir, und deswegen begegnen wir diese Art von Content gar nicht mehr so, bei mir ist, seit es LLMs gibt, ist bei mir dieser ganze Medienkonsum extrem runtergefahren. Weil ich im Grunde genommen meine ganze Aufmerksamkeitszeit eher in der Interaktion mit dem LLM habe. Und ich es ja gleichzeitig wahrscheinlich nicht so typisch nutzen wie die allermeisten Leute im Consumer-Marktbereich, sondern ich habe dann tatsächlich eine Sammlung von Papers, Büchern, packe die dann bei Notebook, LM und unterhalte mich halt über Fachthemen und mache so Recherche-Sachen. Das ist halt eher so mein Fun nebenbei. Und das meine ich ernst, also es macht Spaß. Es hört sich vielleicht nicht so an, dass Spaß macht, schon ist es halt harte Arbeit. Aber das führt eben dazu, dass ich mich eben gar nicht mehr mich so von diesen ganzen anderen Content-Arten letztlich meine Aufmerksamkeit einsaugen lassen kann. Und jetzt kommt aber der Punkt, das ist eigentlich nicht unbedingt was Gutes für das Internet letztendlich, weil auch das ist ja ein Element, was dazu führt, dass sozusagen diese Monopolstellung des KI-LLMs, dieser ganzen Chatbots und so weiter, dass das auch ein Stück weit die neuen Gatekeeper werden. Also im sprich, ansonsten war vorher halt YouTube oder Google Einfallstor, vorher waren es halt die Zeitungen und Magazine und Fernsehen und so. Und jetzt kommt halt dieser Layer nochmal drüber, weil gleichzeitig wir das Gefühl haben, wir können diesen ganzen Sachen nicht trauen, aber im Moment shiftet das Vertrauen jetzt eher wieder in Richtung LLM, wo wir denken, ja gut, die sind aber ja so gut programmiert, die filtern bestimmt auch den ganzen Müll und Dreck raus. Und das ist natürlich fatal, wenn du das so nutzt, also so generisch nutzt. Es ist genial, wenn du deinen eigenen Pool an Informationen selber sozusagen zusammenstellst und selber einen Qualitätscheck machst, weil dann bist du auf einer sicheren Seite, also einigermaßen auf einer sicheren Seite. Und das ist ja auch nochmal spannend, dass dadurch das Internet am Ende halt auch sehr viel verliert, weil auch dieser Shift sozusagen in Summe stattfindet. Und immer mehr, je mehr Müll kommt, desto mehr shiftet es, glaube ich, weil die Leute ja auch dann immer mehr überfordert sind und sich irgendwann sagen, warum muss ich mir das überhaupt angucken? Und es führt ja auch zu dem Effekt, dass man manchmal Videos tatsächlich sieht, wo man da nicht glaubt, dass es echt ist. Es ist aber echt. Das ist ja auch ein komisches Phänomen.

SPEAKER_05

Es ist ganz lustig, genau, weil ich habe auch das Gefühl, der Wert von der LLM-Nutzung, die du beschreibst, wurde auch durch KI erst geschaffen oder verstärkt. Also dadurch, dass das Internet so geflutet ist von Mist und Orientierung fehlt und man irgendwas braucht, um da durchzuschneiden und das zu suchen, was für einen relevant ist, das ist jetzt das, warum das LLM quasi attraktiv ist, weil das vorgelagert passieren kann. Und du dann, das mache ich auch ganz viel mit Deep Research und so. Und du sagst dann halt, okay, hier such erst mal die besten Forschenden zu dem Thema, jetzt liest deine ganzen Grundlagenpapiere und die aktuellsten Papiere und dann sag mir, wo ich jetzt quasi die Infos finde, die interessant sind und wo ich, wo ich weiterlesen kann. Es ist lustig, als du angefangen hast zu sprechen, habe ich erwartet, dass du sagst, du bist jetzt gar nicht mehr so viel auf TikTok und Instagram, weil du wieder zu einem Menschen zurück willst. Und dann sagst du, du drehst einfach gar nicht. Menschen interessieren dich nicht mehr. Du riebst einfach nur durch mit einem LLM. Aber ich glaube, dass wir eigentlich darüber sprechen müssten, was sich da verändert hat in dem System. Also weil ich höre daraus, dass das, was du willst und was trotzdem substanzielle Informationen für dich sind, dass die trotzdem menschgemacht sind. Und dass die, dass die existieren und dass quasi gute Informationen einen Wert hat für dich. Und die Frage ist, wie findest du die? Und ich glaube, also wir haben ja richtig gesagt, es ist nicht ganz neu, dass du auch viele Misinformationen findest. Was mir auch eingefallen ist, während du gesprochen hast, ist so Klatschpresse früher. Da konntest du schon zum Kiosk gehen und einfach halt wirklich Headlines lesen. Oder das kannst du immer noch. Du kannst Headlines lesen, die nichts mit der Realität zu tun haben. Und da haben auch Leute dann nur irgendwelche Artikel über irgendwelche Royals geschrieben. Nicht, weil sie wirklich kommunizieren wollen, was diese Royals machen, sondern weil sie halt das Heft verkaufen wollen. Und das ist auch schon lange quasi echt an der Realität vorbei. Aber ich glaube, was schwieriger wird, ist halt, wo ist das Heft, wo dann trotzdem die guten Artikel drinstehen und finde ich noch zwischen den ganzen Klatschblättern, quasi, wenn es der Supermarkt eine Metapher für das Internet ist, finde ich überhaupt noch die guten Texte oder die guten Videos oder was auch immer? Oder ist quasi die Logik des Internets mittlerweile auch durch diese Profitinteressen auf eine Art so gewachsen, dass eigentlich der Supermarkt inzentiviert ist, alle Regale mit Klatschblättern vollzumachen, weil das das ist, wo man irgendwie so reflexartig hingreift und da halt am meisten Cash rauskommt dann im ersten Moment.

SPEAKER_00

Hey, Patrick hier, Patrick Breitenbach von 1789 Consulting. Sorry, dass ich diesen Podcast hier unterbreche, aber ich wollte nur sagen: wenn du diesen Podcast wirklich, wirklich liebst, dann wirst du ganz sicher auf Spotify oder Apple Podcast eine 5-Sterne-Bewertung hinterlassen und das Ganze noch mit einem positiven Kommentar garnieren. Und wenn du dich dafür interessierst, was wir als Unternehmensberatung so machen, dann schau doch mal auf unserer Website vorbei: www.89-consulting.de oder sprech uns direkt bei LinkedIn an. Wir freuen uns und jetzt geht's weiter mit den Erkenntnissen. Viel Spaß!

SPEAKER_01

Also irgendwie finde ich das ja ganz charmant, weil Patrick du ja im Prinzip sagst, du gehst zur Sache quasi. Also du möchtest dich über eine Sache unterhalten und darüber was lernen quasi. Und das war ja bisher schon auch quasi, wie man durchs Internet nimmt, dann hat man auf Wikipedia Sachen gelesen oder irgendwie ist quasi, hat sich durchgegoogelt. Und klar, diese Arbeiten, die werden jetzt halt abgenommen. Und das heißt, du kannst diesen ganzen Noise, den Marie gerade beschreibt, mit der Klatschpresse, kannst du quasi ausblenden und sagen, ich muss gar nicht erst irgendwie durch diesen Dschungel durch, um dann zu einem Fünfchen Informationen zu kommen, mit dem ich dann weiterarbeiten kann. Weil man möchte sich ja dann vielleicht auch mit den Sachen auseinandersetzen. Das war vorher YouTube, das waren die Rabbit Holes, da hat man sich auch mit Sachen auseinandergesetzt. Das ist jetzt einfach eine andere Form. Und die Frage, die sich da für mich so ein bisschen stellt, ist, wie beeinflusst aber diese neue Form die Art und Weise, wie wir mit Informationen umgehen und wie wir diese Informationen auch aufnehmen und auch, wie wir sie einordnen. Weil das ja schon ein sehr anderes Format ist. Also wir sind nicht in Anführungsstrichen reine Konsumenten, sondern wenn du mit einem LLM diese Sachen anschaust, dann diskutiert man ja auch viel mit denen und kann darüber ja sich damit auseinandersetzen und dann gibt es hier ein Argument und da ein Argument und so weiter. Aber andererseits finde ich, schleicht sich das jetzt schon total in den Sprachgebrauch ein, ein LLM als eine Autorität anzuerkennen. Also dass man dann irgendwie sagt, naja, aber ich habe das jetzt nochmal durch Claude gejagt und der sagt, es passt. Und was bedeutet, der sagt, das passt. Also ist das quasi eine Schwelle für uns, mit der wir arbeiten können oder nicht arbeiten können. Und das passiert ja auch in anderen Dingen, wo zum Beispiel uns entweder agentische Systeme oder einfach nur so Recherchemodelle Empfehlungen geben. Und damit sind sie ja quasi dann unser Filter und auch auf eine gewisse Art, jetzt unterstelle ich mal noch nichts, aber auf eine gewisse Art manipulativ, weil sie quasi sagen können, das ist, was wir sehen und das ist, was wir nicht sehen. Ich weiß nicht, ob ich das letztes Mal schon mal gesagt habe, aber wir haben gerade unser erstes Projekt gewonnen, weil wir unseren neuen Kunden von ChatGPT vorgeschlagen wurden. Ach, lustig, passende Beratung.

SPEAKER_05

Ich war neulich, ich war neulich eingeladen, ach, ich sage jetzt nicht wo, weil das gemein ist. Aber ich war neulich auf dem Panel eingeladen und habe gefragt, wie sind sie eigentlich auf mich gekommen und Perplexity hatte mich vorgeschlagen.

From SEO To LLM Recommendations

SPEAKER_01

Ja, also ich finde das krass, das ist jetzt da, ne? Und wir schwanken jetzt von SEO zu Geo oder wie auch immer. Also jetzt optimieren wir für die Maschine, für eine andere Maschine. Genau, aber dieses quasi, dass die, dass die KI jetzt als Autorität in unser Leben tritt, das ist, glaube ich, ein Faktor, mit dem man sich auseinandersetzen muss, wenn man sie viel benutzt.

SPEAKER_00

Also definitiv. Vielleicht, ich muss noch so ein bisschen darüber reflektieren, über das, was Marie gerade gesagt hat, ob ich mich weniger gerne mit Menschen unterhalte. Dann wollte ich sozusagen reflexartig sagen, nee, nee. Und dann habe ich noch ein bisschen länger darüber nachgedacht und eigentlich gedacht, it depends. Und vielleicht muss man dazu sagen, ich bin ja, sag ich mal, her, von meiner Gehirnstruktur, also eher so neurodivergent, was bedeutet, meine Art, Informationen wahrzunehmen, ist tatsächlich so schnell wie möglich Dinge zu filtern zu können, weil ich sehr schnell von belanglosen Sachen gelangweilt bin. Was dann letztlich bedeutet, ich will sehr schnell zur Substanz zu dem Punkt kommen, wo es mir darum geht, eine Fragestellung, etwas zu verstehen und so weiter. Und deswegen ist das natürlich für mich an der Stelle Gold wert, weil ich ganz anders mit Informationen interagieren kann. Also Wikipedia war schon Gold, weil man konnte sich sozusagen von Link zu Link zu Link hangeln und konnte sozusagen so Spuren folgen, musste jetzt nicht ein ganzes Buch lesen und am Ende feststellen, ja, Autor, Autorin hätte das jetzt auch auf zehn Seiten für mich schreiben können, um die Substanz des Ganzen rauszunehmen. Und da hört man schon wieder, ich bin weniger der Ästhet, ich bin auch niemand, der gerne, obwohl wenn ich mich drauf einlasse, dann schon Romane liest und so weiter. Oder eher auch Storys, aber auch die müssen überschaubar sein.

SPEAKER_05

Aber eine Zusammenfassung von vielen Wikipedia-Artikeln hat für dich einen totalen Wert.

SPEAKER_00

Absolut, genau. Und aber auch den Wert, dass ich dann auch tiefer gehen kann. Wenn ich sage, okay, diese Zusammenfassung reicht, wenn nicht, dann ist es entweder eine Originalquelle, der ich folgen kann, oder da ist ein Aspekt drin, dem kann ich wieder folgen und den verstehen. Und jetzt habe ich das ja in einer Form von Dialog. Also ich habe ja einen fiktiven Gegenüber, dann kann man sich ja vorstellen, ist das ein Mensch oder nicht. Und was ich aber damit sagen will, das bedeutet nicht, dass ich mich nicht gerne mit anderen Menschen unterhalte, sondern ganz im Gegenteil. Und ich bin ja auch angewiesen, jobtechnisch das zu tun und das ist auch super wertvoll. Aber auch da will ich ja warnen, dass dieses ganze Thema der Autorität und so weiter, auch das war ja ohne KI auch schon unter Menschen vorhanden. Also wenn der Prof was gesagt hat, dann war das erstmal gesetzt, weil der Prof an und für sich die Autorität und damit.

SPEAKER_01

Da kommt das ja mit einem ganzen Rattenschwanz quasi an institutionellem Aufbau, wo man sagt, und ab jetzt können wir dich als Autorität anerkennen.

SPEAKER_00

Ja, und dann gibt es sozusagen dann noch eine Verlagerung von Autoritäten. Also das ist noch eine Autorität mit einem gewissen Fundus an Dingen, die dahinterstehen. Aber dann gab es ja schon so den Switch, dass irgendwelche Promis sich in Talkshows zu irgendwelchen Themen äußern, die jedweder Wissenschaft entbehren und man diese dann als Autorität nimmt. Oder auch aus Wissenschaftsakteuren, die ihr Feld verlassen und plötzlich so Universalgelehrte sind und dann auch Autoritätsdinge machen und dass nichtsdestotrotz Autoritätsargumente auch was Kritisches sein können. Also wenn man heute, also wenn man irgendwie sagt, Kant hat früher das und das gesagt, dann kann man nicht sagen, wir leben jetzt irgendwie hunderte Jahre weiter, dass das immer noch so gilt. Und da tut man sich halt schwer, diese Autoritäten auch nochmal kritischer zu hinterfragen. Und damit meine ich sozusagen, dass diese Autoritätsverlagerung in die KI überträgt, dass man aber demgegenüber mindestens genauso kritisch sein müsste wie allen anderen Autoritäten, auch auf menschlicher Ebene letztlich. Das wollte ich sozusagen nur damit sagen. Oder sprich, auch das werden ja, wenn man ehrlich ist, auch immer erleben. Es gibt auch Gespräche mit Menschen, die für alle irgendwie ein Stück weit entweder, weiß ich nicht, als energieraubend empfunden werden, langweilig, wie auch immer. Und man ist aber halt dann höflich und unterhält sich oder versucht sich da rauszuwinden. Ich glaube, das geht nicht nur mir so. Und deswegen ist ja so dieses Per se Aussage, menschliche Kommunikation und Interaktion ist immer etwas Wertvolleres als das andere, würde ich sozusagen gar nicht an der Stelle unterschreiben wollen. Aber man muss trotzdem diese Gefahr der Überautorität auch an diesem Punkt nochmal viel stärker natürlich hinterfragen. Weil hier ist ja nochmal ein Akteur, der sehr stark in Konzernhänden etc. pp ist und wir auch nicht wissen, da ist ja nichts dahinter. Also wir können nicht ahnen, was sind die Intentionen, was ist die Gefühlswelt, was ist der Algorithmus an der Stelle dann. Und wie können wir das sozusagen einordnen als Informationsquelle?

SPEAKER_01

Wir machen einmal kurz einen Disclaimer an dieser Stelle. Gegebenenfalls hört man ab und zu mal Bohrgeräusche im Hintergrund und wir hoffen, dass sie nicht stören. Aber also mich stören sie zumindest nicht, wenn du redest, Marie. Ich kann dich sehr gut trotzdem hören.

SPEAKER_05

Mich stören sie schon, aber. Passt schon. Ich wollte gerade sagen, ich habe das Gefühl, wir sind an einem Punkt, also wir, ja, einerseits erkennen wir an ganz viele von den kritischen Dingen, die wir gerade beobachten, die waren schon immer da, die verstärken sich vielleicht, die sind jetzt irgendwie in einer anderen Form da, die Autorität verlagert sich, aber das ist irgendwie alles nichts Neues. Und gleichzeitig gibt uns KI Möglichkeiten, die so ein bisschen, da haben wir glaube ich auch in der letzten Folge drüber geredet, so der Traum des frühen Internets für Leute, die Informationen mögen. Wir können jetzt global vernetzt sein, wir können Informationen austauschen. KI bietet uns quasi neue Kommunikationsmöglichkeiten, andere Kommunikationsmöglichkeiten und andere Möglichkeiten, Informationen zugänglich, durchsuchbar zu machen. Und das ist erstmal total toll. Also zu deiner Frage vom Anfang, irgendwie, so stirbt das Internet oder ist das Internet schon tot, habe ich das Gefühl, meine Antwort ist auch, ja, brennt es nieder und dann müssen wir halt gucken, kriegen wir was Neues aufgebaut, wo wir die Lage ein bisschen dahin verschieben, dass wir mehr von den guten Möglichkeiten des Internets nutzen und weniger von diesen oder weniger diesen Machtstrukturen, diesen Profiteffekten Raum lassen, die uns ja auch das Internet schon ganz ohne KI schon ziemlich versaut haben, die letzten Jahre. Und da würde ich total gern drüber nachdenken, was die Möglichkeiten sind, weil das ist ja auch das, was wir sehen, einfach an den Konzernen, die gerade mächtig sind im Internet. Google und jetzt auch die neuen KI-Firmen wie OpenAI und Anthropic ist ja überhaupt nicht gesetzt, dass sie mächtig bleiben. Die strugglen ja auch. Die sind ja auch untereinander in Machtkämpfen, die wissen ja auch selber teilweise nicht, wie sie noch Aufmerksamkeit erzeugen können oder wie sie sich durchsetzen können. Die probieren allen möglichen Quatsch aus, also Meta, Launch, dauernd irgendwelche neuen Bots und stampft die dann wieder ein. OpenAI hat jetzt gerade so ra wiedergekillt, weil die alle auch selber nicht wissen, was die Menschheit braucht und was der Markt braucht. Die behaupten das nur und sie sind halt im Wettbewerb miteinander. Aber ich finde, sowas ist immer so eine Chance, da irgendwie reinzuschneiden und dann zu gucken, okay, was können wir jetzt machen als Gesellschaft, als Politik, wie können wir jetzt Weichen stellen, die das quasi ein bisschen schwieriger machen, da halt so ein komplettes, beschissenes Bot-Internet draus zu machen und die es einfacher machen für die Leute, die auch schon auch schon die Wikipedia geschrieben haben. Weil das darf man auch nicht vergessen. Alles, was wir jetzt an Möglichkeiten haben, auf diese Informationen zuzugreifen, basiert auf ganz viel echter Arbeit von echten Menschen, die einem mühsamen gemeinschaftlichen Prozess diese Informationen erstmal erzeugt haben.

Monopolies And Dual Use Incentives

SPEAKER_01

Das ist für mich sowieso so eine Fragestellung, was passiert mit Wissenschaft, nicht im Sinne von Berufwissenschaftler, sondern mit Wissen schaffen. Also wie viel Wissen können, kann die KI schaffen und wie viel kann sie halt reproduzieren. Also ich glaube, dieses Moment von, oh, hier ist eine neue Erkenntnis, die ist ja sehr menschlich. Und also man kann sie dazu nutzen, um zu einer Erkenntnis zu kommen, aber dieses wirklich neue Wissen in die Welt zu bringen, darauf ist ja die KI auch angewiesen, dass sie darauf zurückgreifen kann. Ich habe den Big Technology Podcast gehört letztens und da haben sie so ein bisschen diskutiert, wie OpenAI und Anthropic quasi jetzt so sehr ähnliche Geschäftsmodelle verfolgen, mit quasi viel in den Enterprise-Markt rein und agentisch und so weiter und so fort. Und ich fand es sehr lustig, weil ich das Gefühl hatte dabei, dass immer so mitschwingt, dass es so eine Art Monopolstellung schon antizipiert wird. Dass irgendwann mal ein Unternehmen diesen Wettkampf gewinnt und dann quasi ist das das eine Modell, das wir alle nutzen. Und da denke ich mir so, ich finde, das ist ein total komisches Framing, so da dran zu gehen, weil wir würden ja uns überhaupt nicht wünschen und auch überhaupt nicht abwarten wollen, dass alle Leute nur noch ein Auto fahren oder nur noch eine Automarke fahren. Und dann darauf hoffen, dass sie sich selbst weiter optimieren. Also dann da bin ich auch gerade sehr, quasi, wie funktioniert eigentlich dieser Wettbewerb zwischen den Anbietern, dieser Modelle, die ja gerade so viel für uns verändern. Also aktuell, also Patrick sagt es, also Patrick hat die regulären Medien schon größtenteils verlassen. Ich arbeitstechnisch auch, also ne, es ist ein ganz anderes Arbeiten und so weiter. Und wir sind da schon sehr viel so drin immersed. Und wenn wir jetzt davon ausgehen, aber quasi, dass ein Unternehmen irgendwann mal da so eine Monopolstellung bekommt, dann fände ich das nicht gut.

SPEAKER_05

Ja, und dieser krasse Wettbewerb und auch der Glaube, dass man den Wettbewerb nur gewinnen kann, indem man die größte Marktmacht hat und vielleicht sogar ein Monopol, das ist ja auch das, was das ganze Game verzerrt. Also warum, glaube ich, auch so die klassischen Marktlogiken, selbst wenn man da idealistisch war, nicht funktionieren. Weil du große Unternehmen hast, die viel Geld haben aus der vorherigen Phase des Internets, wo sie gar nicht wissen, wohin mit dem Geld und sowieso aus steuerlichen, aus allen möglichen Gründen überlegen müssen, wie reinvestieren sie das, die sich teilweise querfinanzieren können durch ihre Businesses, die sie schon hatten und die damit jetzt einfach nur versuchen, diese Marktmacht auszubauen und einfach den größten Market Share zu bekommen. Zu dem Punkt, wo alles, was sie zurzeit machen, eigentlich nicht nachhaltig und wirtschaftlich ist. Also nicht nur umweltmäßig nicht nachhaltig, das auch, aber auch eigentlich aus Business-Sicht. Deswegen sprechen wir ja so oft von Abubble und ob das sich irgendwann nochmal korrigiert. Aber das ist ja auch was, was für uns auf der nutzenden Seite dazu führt, dass wir auch seltsame Produkte vorgesetzt bekommen und totale Verzerrungen, weil dieser Wettbewerb so verschoben ist dahin, dass man eben gucken muss, wie kriege ich jetzt noch mehr Investorengelder, wie kriege ich jetzt noch mehr Aufmerksamkeit, was kann ich jetzt erzählen, wo vielleicht alle merken, dass es in einem halben Jahr nicht stimmt oder wo ich vielleicht auch in einem Jahr oder zwei die Preise nochmal verdoppeln, verdreifachen, verzehnfachen muss, weil das, weil KI-Videogenerierung sich nicht lohnt. Aber wir sind halt gerade in der Phase, wo dieses Rennen läuft.

SPEAKER_00

Und ich würde behaupten, das ist eine ganz normale Systemlogik. Also diese Monopolbildung, das ist ja jetzt kein neues Phänomen, sondern das ist eigentlich das Ziel von Kapitalismus zu Ende gedacht. Also die Akkumulation so weiter zu treiben, dass ich sozusagen irgendwann keine Konkurrenz habe. Und das zeigt uns ja gleichzeitig wieder die Widersprüche, die uns sozusagen im Diskurs begegnen rund um Kapitalismus und Kapitalismuskritik, wo ja einerseits der freie Markt und so weiter uns angepriesen wird und Monopole sind ja eigentlich nichts Tolles. Aber in der Logik der Profitmaximierung und so weiter steckt das halt mit drin. Und mittlerweile ist das ja auch die Philosophie der Tech-Konzerne und im Silicon Valley. Also nicht umsonst spricht ein Alex Carp, also der Chef von Palantir, auf Podien ganz offen darüber, dass ihr Ziel ist, jetzt nicht einen tollen Wettbewerb zu haben und Erster zu werden, sondern zu dominieren. Also den Markt zu dominieren, andere Länder zu dominieren, also die absolute Herrschaft zu erreichen, das ist deren Ziel. Also so handeln sie als CEOs. Und das muss uns einfach nochmal klar werden. Also dieses Monopol-Ding ist das Ziel und deswegen machen sie diesen Wettlauf, wie sie ihn gerade machen, weil sie diese Hypothese haben, naja, nur einer wird bestehen oder es gibt ja diese Floskel, the winner takes it all. Und der Loser ist weg.

SPEAKER_05

Weil Mary Jane auch das Autobeispiel gebracht hat, was ich total einleuchtend finde. Es kommt uns jetzt absurd vor ihm zu sagen, ach so, nie, keine Ahnung, Mercedes will dann alle, alle, alle Menschen auf der Welt Mercedes fahren. Ich bin leider nicht super versiert in Automobilgeschichte, aber die Automobilindustrie war ja auch mal an dem Punkt. General Motors wollte das auch. Und dann hat damals, ich glaube, sogar eine republikanische US-Regierung entgegengewirkt. Und damals waren genau die, die heute ganz viel über die freien Märkte sprechen, waren die, die gesagt haben, nee, für Märkte ist es gesund, Vielfalt zu haben und Konkurrenz zu haben und Monopole zu verhindern. Also wirklich mit staatlicher Macht.

SPEAKER_01

Absolut. Ich glaube nämlich, das ist genau der Punkt. Also ich glaube, dass ein Unternehmen das gerne möchte, ja, weil die Monopolstellung ist natürlich die gemütlichste Stellung, die du haben kannst. Aber dass eine Regierung da nicht mehr quasi hinter ist, quasi diesem Monopolbildung zu unterbinden, das finde ich schockierend. Und gerade in den USA, finde ich, merkt man das am meisten. Und das Beispiel, das du gebracht hast, Patrick, ist fantastisch, weil ein Begriff, der mir in der letzten Zeit total viel unterkommt und das ist so ein ekelhafter Euphemismus, ist Dual-Use. Und Dual-Use ist sozusagen, ja, ja, wir haben einmal so die zivilen Anwendungen, aber wir haben, man kann es auch für militärische Zwecke nutzen, das Dual-Use. Aber das ist ja ein Mechanismus, also jetzt mal abgesehen davon quasi, wie perfide das an sich schon mal ist, ist ja auch ein Mechanismus quasi über eine Regierungsabhängigkeit sozusagen, sich da einen Lobbyzugang zu schaffen, der diese Monopolbildung mehr unterstützt, als er ihr entgegenwirkt, im Sinne von freie Märkte zu halten durch ein Rahmenwerk, in dem es eben keine Monopolbildung gibt. Also da bin ich sehr gespannt. Und was ich gerne euch mal fragen würde, vor allem dich, Marie, ist, wie siehst du quasi auch, wie sich diese Geschäftsmodelle von denen überhaupt entwickeln? Also weil ein Modell ist ja, dass wir für die Anwendung einfach bezahlen, so wie wir das jetzt machen in den verschiedenen Tiers, die es halt gibt, 20 oder 200 Euro. Aber also, du hast ja gerade schon gesagt, ne, Cross-Finanzierungsmodelle und so weiter, eine Frage wäre ja auch, entwickeln die sich zu Plattformen, ne? Also entwickeln die sich zu quasi den neuen Werbetreibenden, so wie Google das gemacht hat. Und was passiert dann damit, wenn wir die eigentlich aus Autorität sehen, können wir das überhaupt noch sehen, was Werbung ist? Also ja, diese Frage, ich weiß nicht, ob du da besser Bescheid weißt als ich vielleicht.

SPEAKER_05

Ich kann jetzt keine Prognose machen, weil das ist ja auch, ne, was ist, was ich, das ist etwas, was sich krass ändert zurzeit und wo, wie gesagt, ich glaube, dass auch die großen Firmen selber nicht genau wissen, wo gehen sie gerade hin und einfach verschiedene Dinge ausprobieren. Ich glaube, der Gedanke war eine Zeit lang, Plattform Business zu versuchen und Google-Konkurrenz zu machen und zu gucken, kriegen wir da Werbung rein. Und vor allem bei OpenAI hat man das stark gemerkt, dass die das verfolgt haben, auch im Vergleich zu Anthropic, die von Anfang an ein bisschen mehr auf Businesskunden gegangen sind. Du hast gerade die militärischen Anwendungen und die Monopolstellungen gegenüber den Staaten angesprochen. Ich befürchte so ein bisschen, dass das gerade einfach aus der geopolitischen Lage heraus, aber auch aus einer einfachen Business-Sicht, wo kommt das Geld her und wo kommen langfristige Verträge her, die total attraktiv ist für die KI-Firmen. Deswegen, weil der Konsumermarkt so unberechenbar ist und weil das da, glaube ich, nicht so gelungen ist, wie man sich es am Anfang vielleicht gehofft hat, dass man sagt, okay, das ist hier eine App, die muss jeder haben und dann werden die Leute auch ganz sicher bereit sein, 20, 30 Dollar im Monat zu zahlen. Beziehungsweise am Punkt, wo manche Leute sicher bereit sind, das zu zahlen, weil es auch ein bisschen nützlich ist, was man da rauskriegt, aber wo es nicht immer die Kosten deckt. Also wo der Punkt noch absolut nicht erreicht ist, wo man sagt, es ist so nützlich, wie es auch Compute kostet für die Firmen. Und ich glaube, wenn du wirklich langfristig überlegst, viele von den Unternehmen wollen ja auch an die Börse und bereiten ihre IPOs vor. Ich glaube, so Government-Contracts sind total attraktiv. Und du kannst gerade militärische Anwendungen super gut verkaufen in diesen Zeiten. Und das ist, glaube ich, auch mit ein Grund, warum die ihre Prinzipien so stark aufgelöst haben, wo sie am Anfang noch ganz viel gesagt haben, nee, wir gründen jetzt extra Anthropic, weil wir finden Opening Eye ist nicht konsequent genug. Und die meinen es nicht ernst genug, mit denen müssen KI entwickeln, dass es der Menschheit Gutes bringt, mehr als es Schlechtes bringt. Und jetzt ist halt dieser Wettbewerb so stark geworden, dass man sagt, ja gut, aber vielleicht sogar kann ich mir vorstellen, dass bei Anthropic auch total idealistische Leute trotzdem sitzen, die halt sagen, okay, aber wenn wir jetzt auf dem Markt komplett ablosen gegen OpenAI, dann werden ja trotzdem die Bösen gewinnen sozusagen. Und allein deswegen müssen wir ein bisschen offen darüber sein, ob wir nicht doch hier an den einen oder anderen zweifelhaften Akteur auch verkaufen, weil wir dann nachhaltig bestehen können und dann lieber wir als die anderen oder die andere Erzählung, die in den USA immer total verbreitet ist, aber lieber lieber US-Firmen als chinesische Firmen. Also ich fürchte, es geht so ein bisschen in die Richtung, dass einfach auch wieder mal Militäranwendungen oder auch autoritäre Anwendungen in staatlicher Bürokratie und so, dass die einfach attraktiv sind, weil man da Geld machen kann. Und zwar auf einer Skala, die mit dem Consumer-Business nicht möglich ist und auch nicht so langfristig denkbar ist, weil du als Nutzer zahlst du halt pro Monat und dann kannst du auch einfach wieder kündigen und wieder zu einem anderen Anbieter gehen. Und wenn so ein Staat erstmal sagt, nee, wir bauen jetzt hier unsere Polizeiüberwachung auf dieses System auf oder wir bauen jetzt dieses und jenes Sprachmodell in irgendwie unsere militärische Infrastruktur ein, da bist du halt aus Firmensicht auf so eine total schöne Art dann eingeloggt erstmal.

SPEAKER_00

Genau, also und das nicht nur sozusagen auf der reinen Profit- und Cashflow-Ebene, sondern auch, da empfehle ich sehr, Rainer Mühlhoff, ein Soziologe, der sehr kritisch über KI und die ganzen Strukturen drumherum ein Buch geschrieben hat, gibt auch ein Interview bei Junge Naiv. Die machen quasi den Move, sie werden dadurch too big to fail. Also indem sie sich in diese ganzen Verwaltungsstrukturen einloggen und sozusagen dann die Grundlage bilden für staatliches Funktionieren, kannst du sie am Ende nicht mehr einfach so rauskicken, sondern sie sind damit im wahrsten Sinne des Wortes staatstragend. Und das ist natürlich eine sehr gefährliche Entwicklung, wenn, also das ist ja so Cyberpunk-Szenario. Also Konzerne übernehmen Staaten. Und da müssen ja auch aktuell bei allen, die das Weltgeschehen beobachten, alle Alarmglocken klingeln, weil die Leute, die diese Philosophie haben, wie in Alex Carp und so weiter, die regieren gerade de facto. Also über ein Avatar wie Donald Trump, der aber ja die ganze Te-Elite um sich rum haben, die seinen Wahlkampf finanziert haben. Und nicht nur die, sondern dann in der gesamten Wertschöpfungskette haben wir ja noch die Energieerzeuger, also gerade fossile Energieerzeuger. Und mir kam so eben der Gedanke, weil ihr von Autos gesprochen habt und Automonopol, hier geht es um was anderes, hier geht es darum, eine Art, ja, wie soll ich sagen, das ist kein Auto, was wir haben, also ein sehr überschaubares Konsumgut, sondern es ist eher so wie Öl. Also Öl, was in allem steckt, auch im Auto, auch in den anderen Dingern. Und es gab ja vor der KI-Ära, auch in der Internetära, diesen berühmten Spruch, Daten sind das neue Öl. Und der Erfolg von KI ist ja nicht die technologische Struktur, wie Dinge gemacht werden, sondern die Daten, die sie zur Verfügung haben, die Systeme, in denen sie sich einloggen, also dass ein Claud jetzt auch im PowerPoint drin ist, dass ein Claud auch sozusagen da rein wächst und dass sozusagen das alles überstrahlt und ja dazu auch schon geführt hat, dass klassische Software absolut abkackt, weil sie gar keine Daseinsberechtigung mehr habt, weil sozusagen diese Modelle das einfach komplett übernehmen. Also so ein Adobe wird in Zukunft einfach ein Problem haben, weil selber dann nur eine KI für Bildgenerierung, ja, so what? Irgendwann kann ich, also das Ziel ist es ja irgendwann, dass du mit Claude oder mit ChatGPT, also wenn wir jetzt diese beiden Akteure sehen, ihr Ziel ist es, damit in Zukunft alles machen zu können, was du bislang auf Computerebene gemacht hast. Und sie haben eben alle Daten zur Verfügung, also fast alle oder an die, wo sie rankommen. Und je mehr sie natürlich benutzt werden, desto mehr Daten erhalten sie letztendlich. Und es geht hier wirklich um dieses Datenmonopol. Und sie wollen ja das Gefühl erzeugen, dass wir eben nicht so denken, ja, es ist jetzt dieses Auto, sondern durch die Bandbreite der Möglichkeiten, die sie jeden Tag erweitern, schaffen sie ja eher das Gefühl, das ist so meine eigene Welt mit unterschiedlichen Consumer Goods, wenn man so will. Und das ist, glaube ich, eher die Vision. Deswegen ist das natürlich auch wesentlich anfälliger für so Monopolgeschichten, weil ähnlich wie beim Öl, also es gibt zwar verschiedene Ölsorten, aber am Ende brauchen es alle und du bist eigentlich nur im Game, solange du auf der Quelle sitzt. Und deswegen gibt es ja auch aktuell Kriege, sehr oft aufgrund von Ressourcenfragen, weil es eben so einen Stellenwert hat in der Gesamtwirtschaft.

SPEAKER_05

Okay, also Problem identifiziert, Monopole, Machtkonzentrationen, kapitalistische Profitstrukturen. Ich hoffe, wir können auch noch drüber reden, was wir für Gegenentwürfe haben oder wie man jetzt die Regeln des Internets schreiben müsste, damit man davon ein bisschen wegkommt.

SPEAKER_01

Bevor wir in Ideen reingehen, würde ich gerne noch kurz einfach die andere Seite aufmachen, von was sozusagen eh schon Gutes passiert. Und das hört sich jetzt vielleicht ein bisschen an wie so ein, ja, aber wir sollten auch die andere Seite sehen quasi, aber ich meine das ernst, weil für mich ist es wirklich extrem, was dadurch ermöglicht wurde und wird, auch in dem Szenario, in dem es jetzt gerade da ist. Also auf der einen Seite, haben wir auch drüber gesprochen, jetzt quasi, gibt es so eine Art De Skilling, dass man auch sagt, wenn alles übernommen wird von der KI, dann ist es so ein bisschen, man zieht sich selber da so ein bisschen raus, und agiert ja auch eher so ein bisschen orchestrierend vielleicht, als anstelle davon, dass man halt wirklich krasse Expertise hat in allen Gebieten, die die KI-Verein übernimmt. Aber auf der anderen Seite, und das finde ich, ist wirklich einfach so enorm, hat man ja jetzt einfach einen Schub, du kannst quasi powered by the Internet sozusagen, Rechenleistung benutzen, die einfach so wahnsinnig groß ist, die so viel Informationen hat, die so viele Sachen machen kann. Also ich weiß von ganzen Ländern, die jetzt sagen, oh geil, auf einmal können wir mithalten mit quasi dem globalen Norden, weil wir jetzt einfach selber Sachen machen können, weil wir auf einmal auf eine Infrastruktur zugreifen können, die uns vorher nicht gegeben war. Und ja, jetzt quasi am globalen Markt mitzuspielen, und das ist ja auch, also ne, weil viele Dienstleistungen sind ja einfach auch globale Dienstleistungen. Also ob das jetzt eine App-Entwicklung ist oder sonst irgendwas, das ist auch egal, ob die Person hier sitzt oder woanders sitzt, je nachdem quasi welche Standards erfüllt werden müssen. Und dieses ganze Ding Enablement, ich hasse das im Organisationskontext, wenn Leute sagen, so wir müssen die enablen und so weiter, aber KI ist das Enablement. Das ist die Infrastruktur, auf der ich jetzt, ich als Mary Jane, die nie quasi gecodet hat, auf einmal Dashboards bauen kann, Datenvisualisierung machen kann, Dinge tun kann, für die ich vorher eine Ausbildung gebraucht hätte erstmal, bevor ich die mache. Also das finde ich ist ein wahnsinnig großes Ding. Und das ist also quasi, ja, es gibt diese ganzen Risiken, aber ich glaube, diese ganzen Risiken müssen deswegen so intensiv diskutiert werden, weil es auf der anderen Seite uns einen Möglichkeitsraum gibt, der so enorm groß ist und den ich persönlich zumindest nicht mehr missen möchte. Also ich würde sehr ungern sagen, okay, wir schaffen jetzt KI ab, weil zu großes Risiko. So, sondern dann ist eher die Frage, wie gehen wir damit konkret jetzt um? Aber ja, das wollte ich nur nochmal eingeworfen haben.

SPEAKER_05

Voll, voll. Wie cool ist es, dass halt jeder Mensch ins Internet gehen kann und mittlerweile auch fast egal, was die Muttersprache ist, Übersetzungstools hat und alles lesen kann, was Leute in anderen Sprachen geschrieben haben. Genau, da muss man sich halt dann dafür einsetzen, dass das wirklich möglichst breit verteilt ist, weil de facto ist es dann immer einfacher für diejenigen, die Englisch als Muttersprache haben und schwieriger, je weniger Sprechende deine Sprache hat und so weiter. Aber das Potenzial, dass alle miteinander reden können, dass auch, auch ich als Journalistin, wie geil ich recherchieren kann, wie gut ich Informationen finde, wie gut ich Informationen, die ich sammeln miteinander vernetzen kann und wie sehr KI auch meinem eigenen Denken helfen kann und meinem Austausch mit anderem. Das ist, also genau, also ich will auch gar nicht, wenn ich dann immer irgendwie so darüber rede, was jetzt effizient ist und was nicht, wenn wir es hinkriegen, das nachhaltig zu machen, dann ja, dann Data Centers in Space und keine Ahnung und so viel Rechenleistung, wie wir halt brauchen, wenn man halt auf der anderen Seite mitdenkt, was es kostet. Nicht nur, was es sein Geld kostet, sondern halt auch, was es den Planeten kostet. Was ist geil? Rechnen ist geil. Können alle mehr rechnen. Ist mega.

Taste Hype And Human Labor Behind AI

SPEAKER_01

Was ich als Konsequenz ganz lustig finde, also jetzt auch quasi so ein bisschen, um diesen Internetbogen nochmal zu spannen, ist das aktuelle Buzzword. Ich weiß nicht, ob ihr das genauso empfindet, aber ich höre das auch wieder, also genauso wie dieses Dual-Use, gerade überall. Taste. Taste, Taste, Taste. Tech Bros are obsessed with Taste, ist das neue Ding. Und ich finde es so lustig, weil ich glaube, die, also wenn ich das richtig verstehe, ist ja der Sinn dahinter zu sagen, die KI spuckt heute dir viel einfach Zeug aus, aber es ist vielleicht nicht geil. Also es ist nicht, es hat nicht die Nuance, es hat nicht das Ding, das dann sagt, ah, das ist quasi Marys Point of View oder sonst irgendwas. Und jetzt versucht man quasi das irgendwie da reinzubringen, dass man dann sagt, ah, das hört sich wirklich wie Mary an oder oh, Mary würde das so machen oder sonst irgendwas. Oder das ist quasi so eine Geschmacksautorität dann in dem Sinne. Und ich finde das total interessant, weil das ist für mich so eine krass menschliche Fähigkeit, nicht im Sinne von, weil eine KI nicht gute Vorschläge machen kann, sondern weil für mich Taste oder Geschmack eigentlich ein Ding ist, das Confidence in seine Entscheidungen zu haben und quasi auch dieses weglassen können und so weiter und so fort. Und die KI hat das, also die trifft ihre Entscheidungen so, aber Taste ist ja dann quasi in der Akzeptanz, dass man sagt, boah, diese Person hat quasi das so ausgesucht und weil diese Person das so ausgesucht hat, deswegen ist es gut. So, und das ist für mich so eine Übertragbarkeit, das ist natürlich schwierig, auf die KI zu übertragen. Weil ich denke mir so, naja, die KI kannst du immer angreifen, während eine Person natürlich auch nochmal mit ganz anderen Vibes daherkommt. Aber das finde ich ein sehr lustiges Ding, wo man da gerade so sehr drauf pocht. Und für mich ist das auch so ein bisschen dieses, das ist jetzt anders bei der KI, als es beim anderen Internet war, weil beim VorKI-Internet, obwohl das bei Bots natürlich auch schon, aber das ist vielleicht auch so ein Vorläufer von den KI, war das so, jemand hat kommuniziert und das ist jetzt nicht mehr unbedingt ein jemand. Und dann ist quasi so die Frage, können wir den Anschluss auf der anderen Seite so wirken lassen, als ob jemand hier wirklich irgendwie Geschmack hat?

SPEAKER_05

Ich höre Taste ganz viel im Kontext von eigentlich wissenschaftlicher Arbeit. Also gerade wenn es darum geht, können wir KI-Systeme bauen, die uns selber wieder helfen, das nächstbessere KI-System zu bauen, wo man extrem tiefe Expertise in Mathematik braucht und ein Verständnis von den Modellen und aber auch eine gewisse Kreativität, um wirklich so einen Paradigmenwechsel zu schaffen, wie der zu Transformer-Modell zum Beispiel, der ja jetzt auch schon zehn Jahre oder zwölf Jahre alt ist. Zwölf Jahre, glaube ich. Ich habe das Gefühl, Taste ist so eine semantische Abkürzung. Und ich habe einen total zynischen Blick drauf, aber ich kann gerade nicht beschreiben, wofür ich glaube, dass Taste steht. Ich habe das Gefühl, dass es irgendwo in dem Raum von, wir haben in Wirklichkeit ja Modelle gerade, die basierend auf Statistik Informationen an die Oberfläche bringen, die Informationen holen von irgendwoher, wo sie schon existieren. Ich glaube, was ich, ich glaube, worum es bei Taste im Sinne von wissenschaftlich Neuem geht, ist ja wirklich Dinge auf eine nie dagewiesene Art neu zusammenzusetzen oder sondern wirklich einen auch kreativen Durchbruch zu schaffen. Und da frage ich mich, also da weiß ich auch bei Menschen nicht, woher das kommt oder woher Taste kommt. Aber so ein bisschen, ich glaube, mein zynischer Blick ist, ich unterstelle diesen Tech Bros, dass die einfach so sehr aus dieser Optimierungswelt kommen und aus dieser mathematischen Welt, wo man einfach auf eine bestimmte Metrik hinoptimieren kann. Und ich glaube auch so ein bisschen, auch vielleicht unterbewusst, aber jahrelang gewöhnt sind, auf die Geisteswissenschaften und auf andere Wissenschaften als was Softeres und was weniger Wertvolles zu gucken. Und jetzt kommt quasi zurück, dass es nicht nur eine mathematische Art von Denken gibt, sondern das menschliches Denken eben auch. Ganz viel komplexes Denken ist, das durch Text und durch Gespräch und durch so Snowflake, Wischi-Waschi, Soft Sciences ermöglicht wird. Und einfach dadurch, dass jetzt diese Sprachmodelle so erfolgreich geworden sind und nicht irgendeine andere Art von Modell, sind die Tech Bros dazu gezwungen, sich auch wieder mit Sprache und mit sprachlichem Denken auseinanderzusetzen. Irgendwo da verordne ich Test. Ich weiß nicht, ich muss da nochmal mehr drüber nachdenken.

SPEAKER_01

War ein guter Hinweis, weil ich glaube, der Kern der Sache ist auch, KI ist ein Massenprodukt, das auf Masse basiert und das ist quasi sozusagen die Abgrenzung von Klasse sozusagen. Also wenn man dieses Masse-Stadtklasse oder Klasse-Stadtmasse macht. Und quasi, ja, ist das, ist der Klasse-Teil ja damit reingebracht werden oder nicht, weil aktuell ist es halt ein Massending. Das beruht auf Masse und es geht an die Masse und so weiter und so fort. Und dann dieses so, ah, aber werde ich jetzt trotzdem akzeptiert von quasi den Eliten oder sonst irgendwas, die vielleicht nicht eine ökonomische Elite sind, sondern eine intellektuelle oder so, ist dann auch nochmal die Frage.

SPEAKER_05

Ja, und dann wäre Taste, wenn man es doch wieder mathematisch ausdrückt, ich glaube, so der Default von einem KI-System ist, wenn du die Bell-Kurve hast, dass du in der Mitte bist im Durchschnitt. Und das ist aber ja, also ich glaube, Taste ganz oft auch im gesellschaftlichen Sinn oder das, was wir interessant finden, ist oft an den Rändern. Das heißt, die Frage ist, wie bringst du ein KI-Modell dahin, die interessanten Ideen von den Rändern zu holen, obwohl das ja nicht, also obwohl das ganze Modell eigentlich darauf ausgerichtet ist, dass einen Wert hat, was Masse hat. Okay, jetzt werden wir sehr mathematisch und philosophisch.

SPEAKER_00

Also ich verstehe tatsächlich diesen Begriff auch so, auch in Anlehnung zur Philosophie von Steve Jobs und Apple, dass man sozusagen eine Technologie hat, die aber irgendwie jeder hat, also damals halt dieses Personal Computing. Und ich mache es halt cool, intuitiv etc. Und dann ist sozusagen die ästhetische Frage das Entscheidende für die Nutzer und nicht die Rechenpower beispielsweise, die unter der Haube ist, sondern eher das Gefühl und die Ästhetik der Nutzung. Und deswegen haben sich halt dann irgendwann auch so Dinge wie iPhone und so weiter auch als Statussymbol letztlich durchgesetzt, weil es halt dieses Ästhetik-Ding ist. Und ich verstehe es halt so, dass die gerade halt diese ganzen Silicon Valley-Akteure dann so drauf haben, dass ja bei der Softwareentwicklung und so weiter kommt es jetzt eben nicht mehr darauf an. Wie steckt die bessere Leistung, sondern wie ist sozusagen die User Experience, wie der Geschmack entscheidet und den muss man dann treffen, damit man sozusagen in Zukunft bestehen kann. Was aber auch alles so nichts irgendwie ist. Und das war ja eigentlich ehrlicherweise auch schon immer so.

SPEAKER_05

Ja, also ein Vorbeikommen an dem Fakt, dass die, dass die KI-Modelle einfach würfeln. Und deswegen können die mal gut würfeln und auch wenn du ein tolles Agent-System hast, kann sein, dass die mal eine App bauen, die dann durch die Decke geht, aber weil sie halt Glück beim Würfeln hatten. Und das ist bei Menschen ja genauso. Aber das ist, glaube ich, das, was man so ein bisschen sucht und dass es mehr wird als würfeln.

SPEAKER_00

Und da wirst du wahrscheinlich mehr wissen, Marie, aus euren ganzen Recherchendingen. Ich habe das ja mal so verstanden, dass ja ganz viele, wie soll ich sagen, unterbezahlte, ausgebeutete Clickworker auch dafür sorgen, dass dieser Taste in die Nutzung der KI ja reinkommt. Also dass da noch ganz viele Menschenhände sind. Vielleicht kannst du noch mal ein paar Sätze sagen.

SPEAKER_05

Genau, ja, das ist auch wieder, wie bei Wikipedia. Die Wertschöpfung entsteht nicht einfach nur in der Mathematik und im Computer und nicht mal nur in der Energie, die reingesteckt wird, sondern ganz viel bei den Menschen. Du hast, du machst, du baust, ganz kurz gesagt, du baust erstmal das mathematische Modell. Also du trainierst erstmal die Maschine und dafür brauchst du Daten und die Daten kommen auch von Menschen, aber die, keine Ahnung, die klaust du dir zusammen, realistischerweise. Wird noch verhandelt, ob das dann irgendwann geahndet wird, in kleinen Bereichen schon ja. Aber da hast du die Daten und brauchst quasi an dem Punkt keine Menschen, sondern nur die Menschen der Vergangenheit, die Bücher geschrieben haben und so weiter. Oder die Menschen, die YouTube-Videos hochgeladen haben, die du transkribieren kannst. Aber dann hast du eben genau so eine Durchschnittsmaschine, die ganz, ganz schwer nutzbar ist, weil die wirklich nur den nächsten wahrscheinlichen Token dir ausgeben würde. Und das kann halt ein totaler Quatsch sein. Und da ist auch ganz viel Reddit-Rands drin und so weiter. Und deswegen muss man dieses Modell dann noch gärtn. Und das passiert auf verschiedene Weisen, an verschiedenen Punkten in der Produktion, aber ganz viel durch ein sogenanntes RLHF, also ein Reinforcement Learning with Human Feedback. Das heißt, du verstärkst bestimmte Eigenschaften in dem Modell, indem du Menschen da hinsetzt, die dem Modell sagen, das war eine gute Antwort, das war eine schlechte Antwort. Daumen hoch, Daumen runter. Und die haben dann natürlich auch ihre Guidelines und wissen, ah, okay, zu pornografisch schlecht, außer wenn OpenAI wieder die Strategie ändert und dann denken sie wieder, Sex, das ist doch wieder ein bisschen pornografisch ist gut, eine doch wieder schlecht. Diese Menschen machen natürlich nicht nur das, was sie individuell gut finden, sondern die werden von den Unternehmen angeleitet. Aber an der Stelle hast du Menschen sitzen, die das Modell quasi erziehen und dahin formen, dass es nützlich wird. Und deswegen sind die auch so nervig agreeable immer. Und deswegen stimme die Idee aber zu. Und immer so, ja, Patrick, ach, das war wieder eine sehr gute Frage. Natürlich hast du da total den guten Punkt, Patrick. Weil das halt dann die Scores in diesem Trainingsding erhöht. Was interessant ist, ist halt auch so eine Frage, die die KI-Firmen umtreibt, ist, inwiefern kann man dann auch diesen Punkt wieder anderen Sprachmodellen geben. Oder kommt man dann in so eine Situation, wo bestimmte selbstverstärkende Effekte das Modell unbrauchbar machen. Das ist, ist noch nicht ganz klar, aber das ist natürlich der Plan, eigentlich auch die Menschen an der Stelle zu ersetzen.

What Users And Society Can Do

SPEAKER_01

Jetzt mal in die Rodo gefragt, was bedeutet das jetzt für uns Nutzer des Internets und Nutzer der LLMs und Nutzer der, weiß ich nicht, der, ich sag mal, digitalen Welt, wenn quasi diese ganzen Themen passieren. Also ich meine, wir haben gesprochen über, ja, eigentlich über Bots, aber auch über Autoritäten, über Abwendungen vom klassischen Internet hin zu quasi über KI gefiltertes Internet, über Geschäftsmodelle, die da reinkommen. Ich meine, wir haben sehr, also nur einmal kurz angeschnitten, die Werbeoptimierung, die jetzt da stattfindet, über die LLMs, über Geschmack und quasi User Interface und Usability ist ja da auch so ein Teil davon. Also quasi, welches Modell wird das most pleasing sein oder das, wo bestimmte Gruppen sich hingezogen fühlen zu. Aber jetzt aus einer Nutzerperspektive, was macht das? Was bedeutet das? Wo wollen wir hin? Was machen wir?

SPEAKER_05

Ich glaube, also als Nutzerin muss ich mir überlegen, was will ich aus der Nutzung. Das ist was, was schwierig ist, wenn halt quasi eine riesige Maschine dahinter ist, die ja schon auch mit sehr viel psychologischer Expertise überlegt hat, wie kriegen sie aus mir den meisten Wert raus und wie halten sie meine Aufmerksamkeit. Aber ich glaube, erstmal muss ich versuchen, das Internet, genau wie alle anderen Dinge, auch bewusst zu nutzen. Und das heißt dann für unterschiedliche Menschen unterschiedliche Dinge. Aber für mich zum Beispiel, ich habe Apps, die mir die Shorts blocken, weil ich einfach merke, das zieht mich rein und da kriege ich nicht genug raus und ich möchte diese Kurzvideos nicht so viele Stunden am Tag gucken, wie ich es tun würde, wenn ich diese Blocker nicht hätte. Und ich muss mir überlegen, was möchte ich an Informationen und wo kriege ich das aus dem System raus, so wie es jetzt existiert. Und das andere, was ich machen kann, weil ich bin ja nur eine kleine Nutzerin, meine Macht ist begrenzt. Das andere ist, ich muss mich dafür einsetzen, dass die Regeln in dem System so angepasst werden, dass ich nicht nur noch die Wahl habe, Pest oder Cholera, sondern dass ich die guten Teile von dem System nutzen darf. Und am besten, ich bin jetzt eine weiße Zisfrau in Europa. Am besten setze ich mich auch noch dafür ein, dass es nicht nur für mich gilt, sondern dass das ausgeweitet wird, eben gerade auf zum Beispiel die Länder, wo die meisten Billiglohnarbeitenden sitzen, die für einen Dollar im Monat oder ich weiß die genaue Zahl nicht, aber für absurde Niedriglöhne auch diese Modelle trainieren, die mir dann an einem guten Tag so eine Freude bereiten. Also ich glaube, wir müssen uns alle dafür einsetzen, dass es Transparenz gibt. Also dass wir sehen dürfen, wie die Modelle funktionieren, weil dann kann ich mich nämlich auch als Nutzerin besser entscheiden, ah nee, ich möchte hier mit Firma X arbeiten, anstatt mit Anthropic oder OpenAI, weil ich sehe, dass die sich mehr Mühe geben, dass die Algorithmen auf guten Daten basieren. Oder weil ich weiß, dass da bestimmte Begriffe nicht rausgefiltert wurden aus politischen Gründen. Oder weil ich weiß, dass die für die Daten bezahlt haben, die sie benutzt haben. Also Transparenz. Und da finde ich es schon mal super, dass wir in der EU den Digital Services Act, den Digital Markets Act schon mal haben, weil die sind auf jeden Fall die Grundlage dafür, dass man diesen großen Firmen einfach so ein bisschen kleine Regeln vorschreibt und die ein bisschen haftbar macht und ein Stück weit Transparenz fordern. Und auf dieser Basis können an den ganzen anderen Diskussionen stattfinden. Aber genau, ich glaube, wir brauchen zivilgesellschaftliche Kontrolle, wir brauchen Transparenz, wir brauchen Flexibilität, so viel es geht. Also ich glaube, wir müssen uns auch dafür einsetzen, dass möglichst viel von der Technologie, die wir nutzen, offen ist. Also ich persönlich bin für viel mehr Open Source Software. Ich finde auch, das könnte staatlich an vielen Stellen noch gefördert werden, dass man Open Source-Projekte macht, dass man eben guckt, wie machen wir die Infrastruktur für Kommunikation und für gesellschaftlichen Austausch im Internet. Wie machen wir diese Infrastruktur möglichst flexibel? Wie machen wir die möglichst transparent und eben kontrollierbar, nicht nur für eine Firma, sondern für Institutionen, die wir damit beauftragen und aber auch für die breite Gesellschaft, die das diskutieren möchte.

Radical Democracy And Bridging Algorithms

SPEAKER_00

Ich gehe ja direkt nochmal, also alles, was Marie sagt, unterstreiche ich, unterschreibe ich, gehe aber nochmal eine Ebene radikaler. Yes, geil. Weil, also diese sozusagen Bestrebungen sind super wichtig. Aber für mich ist ja die Frage, warum greifen sie nicht, sondern führen aktuell eher zu einem Backlash. Und ich sehe das vor allen Dingen jetzt kurz KI-Thema beiseite, aber wir haben die gleiche Herausforderung im Bereich Ökologie, Stichwort, Nachhaltigkeit, Stichwort, Klimakatastrophe, etc. Wo wir auch eigentlich wissen, also alles liegt auf dem Tisch, die Fakten liegen auf dem Tisch aus der Wissenschaft, das ist super valide. Und wir wissen auch, was zu tun wäre, nämlich das radikal sozusagen zu regulieren, die Energiewende, also wirklich das System zu transformieren, so schnell, wie es nur geht. Und gleichzeitig erleben wir ja gerade eben den Backlash und gleichzeitig erleben wir, dass schon mal verfasste Regularien jetzt wieder auch gesetzlich in den gleichen parlamentarischen Betrieb zurückgedreht werden. Also, das sollte man zur Kenntnis nehmen. Und deswegen wäre jetzt sozusagen mein radikaler Ansatz, der auch eher abstrakt ist, aber sozusagen auch am Ende jetzt nicht das konterkorriert, was du sagst, Marie, sondern eher nochmal vielleicht unterstützt. Der erste Schritt ist, glaube ich, immer Aufklärung. Also, dass wir uns bewusst machen, dass diese Dinge passieren. Und Aufklärung meine ich auch, Aufklärung, wirklich. Damals war Aufklärung ja nicht nur Wissensvermittlung, sondern Aufklärung im Sinne von Macht- und Herrschaftsstrukturen kritisch zu hinterfragen, transparent zu machen, zu beleuchten, wo sind hier die Probleme, warum ist es ein Problem, dass wir einen König haben, der alles alleine entscheidet, während 90% der Bevölkerung dafür schuften müssen, damit der genug zu essen hat und wir aber nicht. Diese Verhältnisse würde ich sagen, international gesehen sind ähnlich und werden auch immer schlimmer. Deswegen gibt es ja in den USA so No-Kings-Bewegungen etc. Also da ist die Nähe einfach auf der Hand. Und deswegen ist Aufklärung in Sachen Machtstrukturen wichtig und eben auch die Aufklärung darum, was gerade in den Parlamenten auch passiert, welche Strömungen halt eher gegen das Gemeinwohl, gegen die Interessen aller agieren, offen agieren, wie sie wiederum von anderen beeinflusst, finanziert werden, wie Lobbyismus funktioniert, welche Lobbyvertreter wem sozusagen beeinflussen. Also diese Dinge müssen sozusagen auf einer aufklärischen, journalistischen, medialen Ebene stattfinden. Da muss Licht rein, im wahrsten Sinne des Wortes. Und dann, wenn wir das verstanden haben, wie das funktioniert, müssen wir einsteigen in die Machtstruktur. Also wir müssen das Spiel mitspielen. Also wir können nicht einfach uns hinstellen und sagen, wir wollen damit nichts zu tun haben, sondern es geht dann um die Frage der Herrschaft. Und dann wäre sozusagen die Antwort aus meiner Sicht natürlich dann eine so radikal wie mögliche Demokratie einzufordern, weil das für mich als Sinnbild für die maximale Checks and Balances, also das maximale oder das Ideal einer Machtverteilung darstellt, sodass eben genau diese Dinge weniger passieren. Und das wäre dann die Voraussetzung für Regularien, aber eben auf einer sehr demokratischen Ebene und realdemokratischen Ebene. Also sprich, dieser Lobbyismus ist ja das Problem, weil er verzerrt ja Demokratie, er verzerrt ja Parlamentarismus. Also diese Verzerrung müssen wir aufdecken, beseitigen, einhegen. Und dann ist ja das Problem, es wird immer oft auf Individuum-Ebene argumentiert. Das ist ja auch beim Klimawandel so. Ja, du musst jetzt weniger fliegen. Ja, toll. Ist einfach gesagt, aber auch schwieriger gemacht. Und es löst auch nicht am Ende das Problem, weil die Probleme sind struktureller Natur sind, die liegen in der Produktion der Dinge. Ich habe ja vorhin schon gesagt, mit Öl. Also, wenn alles aus Öl besteht, basiert die gesamte Wirtschaft auf fossilen Dingen. Und das heißt, wir müssten eigentlich komplett die Produktionsweise verändern, Massenproduktion, pipapo. Und auch hier gilt es eben letztendlich, ja die Fundamente dieser Technologie zu verändern. Also sprich, das, was du sagst, im Grunde genommen müsste es in demokratische Hände kommen. Also es kann nicht sein, dass das in Konzernhänden liegt. Und ich würde an der Stelle sogar ein Plädoyer für ein Monopol aussprechen. In dem Sinne, dass man könnte ja sagen, wenn die Daten, die wir produzieren, uns allen gehören, also mir, dir und vor allen Dingen meine Daten gehören erst mal mir und andere müssten mich sozusagen um Erlaubnis fragen, meine Daten zu nutzen, was sie ja per AGB und so weiter tun, aber halt nochmal, ich profitiere ja davon sonst nicht. Also auch diese Datensouveränität ist eine große Frage und dann macht aber auch ein Monopol Sinn. Also auf einer strukturellen Ebene, wenn sozusagen die Vielfältigkeit der Daten gegeben ist und ich aber trotzdem auf alle Daten auch zugreifen kann, weil so eine Ombudsstelle meinst du oder so eine so eine Datentreuhand oder wie stellst du dir strukturell vor? Also es gab mal ganz früher so einen technologischen Ansatz, wo du quasi deine Daten lokal, alles was du lokal, also alles, was du irgendwie im Netz machst, lokal als Datenpunkt vorhanden ist. Und wenn du dich in ein soziales Netzwerk einloggst, dann gewinnst du. Wärst du quasi Zugriff auf deinen lokalen Datensatz? Das war quasi so ein Umkehrprinzip. Das ist aber auch schon zig Jahre her, wo das mal diskutiert wurde, das hat sich natürlich nie durchgesetzt und so aus anderen Gründen. Aber eine Umkehrung dieses Prinzips, dass ich nicht einfach meine Daten überall reinkippe und dann sind sie da in den Silos für immer, sondern die liegen bei mir und ich stelle sie der Allgemeinheit zur Verfügung. Oder umgekehrt zu sagen, es gibt einen großen Topf, da ist alles drin, da hat aber auch jeder gleichwertig Zugriff drauf und nicht nur exklusiv Konzerne, Werbekunden und so weiter. Das ist halt alles sehr radikal, das ist alles sehr abstrakt, aber wichtig ist sozusagen die Stoßrichtung mal klarzumachen, wo es hingehen soll. Und die ganzen Blockaden, die es gerade gibt und die Bewegungen, die dagegen agieren, diese zu verstehen und diese letztlich anzugehen. Genau. Und beim Individuellen könnten wir dann noch über diese Literacy sprechen, aber ich lasse euch erstmal Raum dazu, vielleicht mal was zu ergänzen oder dagegen zu sprechen.

SPEAKER_05

Ja, ein Gedanke zur Ergänzung. Das Schöne ist ja so, diese radikale Demokratie, die du beschreibst, da gibt uns die neue Technologie ja auch Möglichkeiten, das viel besser zu gestalten, als es früher war. Weil also die Tatsache, dass wir wählen, wie wir wählen, ist ja auch, weil die Technologie es nicht einfach macht, in einer komplexen Gesellschaft Entscheidungen zu treffen. Das heißt, du hast einerseits hast du Abstimmungen, es gibt manche Fragen, wo es irgendwie reicht, ganz viele Leute zu fragen, eher ja, eher nein, und dann macht jeder sein Kreuzchen. Und andererseits haben wir Parlamente, weil wir wissen, dass Entscheidungen, Wissen auch in Diskussionen entstehen, aber weil wir halt nicht zu 80 Millionen immer diskutieren können, sondern weil wir halt entschieden haben, nee, okay, wir schicken dann Repräsentantinnen und die sollen es dann diskutieren und dann so in dieser diskursiven Art Entscheidungen treffen. Das ist alles so, weil wir halt früher nicht mit 80 Millionen Leuten diskutieren konnten. Und da, ähm, glaube ich, ich habe es letztes Mal schon empfohlen. In ich empfehle ich es jetzt, das Buch von Audrey Tang und Glen Weil. Audrey Tang war die Digitalministerin in Taiwan und tatsächlich haben die in Taiwan auch einige von diesen Ideen umgesetzt. Du kannst Technologie, Internet, KI nutzen, um solche Diskussionen zu ermöglichen. Und die haben da zum Beispiel in Taiwan eben eine gesellschaftliche Diskussion durch Apps ermöglicht, über Ridesharing-Apps, über wie wollen wir mit Uber umgehen, wie finden wir, dass diese Apps nach Taipeh kommen. Wir haben ganz viele Fragen in der Demokratie, die so komplex sind, dass es nicht so einfach ist zu sagen, ja, bin ich dafür, bin ich dagegen. Sondern ich sage, vielleicht, doch, finde ich irgendwie cool, aber es sollte halt so sein, dass die Fahrerinnen auf eine ordentliche Art bezahlt werden oder ja, wir müssen aber auch noch die Taxigewerkschaft fragen oder so und so und so und so. Und KI macht es jetzt möglich, dass eigentlich jede Person da einfach einen kompletten Absatz oder einen Fünfseiten oder einen 50-Seiten-Manifest schreiben könnte. Wie stehe ich zu dieser komplexen Frage? Oder warum ist es mir in bestimmten Fällen egal, aber Hauptsache in meiner Straße ist es so und so. Und dann gibt uns die Technologie die Möglichkeit, sowas auszuwerten. Das heißt, wir haben eigentlich die Chance auf eine total radikale gemeinsame Demokratie, eine total radikale gesellschaftliche Mitbestimmung, die technologisch so früher nicht stemmbar war. Weil du kannst ja allein schon Stimmzettel auszählen, kriegen wir bei jeder Wahl mit. Braucht einfach viel Arbeitszeit, viel Arbeitskraft.

SPEAKER_00

Und dazu fällt mir ein, wir haben selber bei uns in der Firma kürzlich genau sowas in sehr Mini gemacht.

SPEAKER_03

Echt in dem Klassen.

SPEAKER_00

Eine kleine Habermas-Maschine haben wir gebaut.

SPEAKER_03

Eine sogenannte Habamas-Maschine.

SPEAKER_00

Haben wir zumindest dann am Ende so ein bisschen festgestellt, dass es eigentlich so ein Habamas-Ding ist. Also Ruhe, er in Frieden, er ist ja kürzlich erst verstorben. Und manche fanden Habermas ja blöd, weil er ja eigentlich ein Ideal formuliert hat, was nicht real vorhanden war. Aber im Grunde genommen hat die meisten auch nicht verstanden, dass es eigentlich ein Ideal sein soll und keine Beschreibung der Gegenwart. Aber sei es drum, vielleicht nochmal kurz erklärt, oder magst du es erklären, was wir da gemacht haben?

SPEAKER_01

Ja, gerne. Genau. Also Human hat es uns gebaut und wir sind gerade dabei, unser Art und Weise, wie wir Geld, das vorhanden ist, verteilen in der Organisation zu überdenken und zu gucken, quasi, wie machen wir das eigentlich, dass es für uns sich sinnvoll anfühlt. Und ich meine, wir beraten auch Unternehmen dazu und wir wissen, das ist ein wahnsinnig komplexes Ding, ja. Also es ist einfach sauanstrengend. Performance und Compensation Modelle bauen ist nicht cool. Und der Ansatz, den wir jetzt gefahren sind mit der Habermas-Maschine, ist quasi, also, dass wir erstmal über ein Chatbot quasi ausspeichern konnten, was sind die Dinge, die uns dabei eigentlich umtreiben. Also was, also zum Beispiel irgendwie ist es, also ich konnte einfach Freitext und dann hat er mir ein paar Rückfragen gestellt und zwar immer so ein Chatding, bis ich irgendwann gesagt habe, ich finde, jetzt habe ich genug gesagt, passt. Und das war dann quasi von uns allen anonymisiert, da drin wurde verwurschtelt und dann erstmal so geguckt, ne, gibt es Überschneidungen und wo gibt es aber auch Spannungsfelder. Und diese Spannungsfelder hat er uns dann ausgespuckt und gesagt, ihr solltet mal diskutieren, wo ihr da landet, zu diesem Spannungsfeld. Und das war mega cool, weil dann konnten wir das danach strukturierter aufbereiten. Das war nicht mehr so an uns als Personen gebunden, weil das ist natürlich was anderes, wenn ich sage, ich habe totales Sicherheitsbedürfnis, deswegen will ich, dass ich immer ganz viel Geld jetzt habe und ich möchte, dass es niemals einen Bonus oder eine Ausschüttung oder sonst irgendwas gibt und jemand anderes sagt so, ja, aber ist doch eigentlich scheiße, weil eigentlich ist es doch voll geil, wenn wir erstmal gucken, was haben wir alles geschafft und danach können wir das alles verteilen. So, quasi auf dieser Bedürfnis-Ebene, das dann nochmal zu diskutieren, aber nicht an die Person gekoppelt, war sehr befreiend und war richtig cool. Und da hat uns super gute Impulse gegeben, zu sagen, oh, guck mal, da haben wir noch gar nie drüber nachgedacht, aber das ist da irgendwie so über so eine Sentimentanalyse dann rausgekommen. Und das ist ja genau so ein Ding, wo man das geil als Tool einsetzen kann, um in einen echten Diskurs zu gehen, um dann Entscheidungen irgendwie ableiten zu können.

SPEAKER_05

Genau. Und das ist ja die Tragik des Internets, so wie wir es jetzt hatten, so die letzten 10, 15 Jahre, dass es eigentlich dieses Potenzial schon immer hatte. Aber dass die Algorithmen eigentlich belohnt haben, wenn du keine sinnvolle Diskussion führst, sondern wenn du kommentierst und Leute wütend machst. Also die Algorithmen, so wie sie existiert haben, begünstigen tatsächlich Polarisierung und motivieren Menschen auch eigentlich extremere Meinungen zu äußern oder weniger nuancierte Gedanken zu äußern, als sie vielleicht eigentlich haben, weil du damit dann wieder Aufmerksamkeit bekommst. Aber das muss nicht so sein. Deswegen finde ich dieses Plurality-Buch so toll, weil da gibt es dann um Bridging-Algorithmen, also quasi, wie kannst du Algorithmen auch nutzen, um Konsens zu finden. Weil die Gesellschaft ist sehr vielfältig und es ist toll und das kannst du eigentlich auch als Energie nutzen, aber meistens gibt es dann irgendwo schon Überschneidungen, wo in der ganzen Komplexität der Welt trotzdem der Weg vorwärts gar nicht so schwer zu erreichen ist oder es gar nicht so unklar ist, was für eine Gesellschaft das ist, worauf man sich einigen kann. Und da kann KI auch moderieren. Also da gibt es auch Ansätze, dass KI dann zum Beispiel übersetzt. Also wenn ich jetzt dann vielleicht doch irgendwie wütend werde, wenn ich was erzähle, dann kann die KI das so ein bisschen auf eine Art, muss man natürlich gucken, wie genau das passiert, aber kann das auf eine Art dann so formulieren, dass eben die andere Person, die politisch ganz anders steht, nicht sofort auch wieder getriggert ist und wir uns gegenseitig hochschaukeln. Ja, sondern dann kann man das total toll nutzen, um Diskussionen eigentlich schöner zu machen.

SPEAKER_01

Ja, also ich finde auch total, und man kann sagen, ja, ist das aber nicht eigentlich eine menschliche Fähigkeit, dass man dann so empathisch auf die Leute zugehen muss und so weiter. Und ich würde sagen, ja, und das ist auch überhaupt nicht dadurch aufgelöst, aber die Verarbeitung von vielen Leuten in dieser Diskussion oder eine kostengünstige Verarbeitung der Diskussion und, und, und, ist einfach vorher nicht gegeben gewesen. Also mach mal, also es gibt ja schon lange diese ganzen Bürgerrunden und dann wird da diskutiert und so weiter. Und das sind extrem aufwendige und extrem teure Vorhaben jedes Mal, weil da wirklich Experten kommen müssen, die so eine Gruppe halten können und so. Und ich glaube, die einzigen positiven Beispiele, die dich davon kenne, wo ich wirklich sagen würde, da ist danach produktiv was bei rausgekommen, sind die Open Source Communities, wo Leute zusammengekommen sind, aber auch da extrem viel davon gescheitert halt einfach. Also nicht jede Open Source Community funktioniert langfristig, weil Leute da extrem viel Energie reinstecken müssen. Und wenn sie aufhören damit, dann versickert das halt auch. Also das ist ja jetzt dann nicht irgendwie lang gegeben. Und auch da gibt es ja Streit und dann gibt es aber da ja immer als eine Möglichkeit, weil es eben ein freiwilliges Ding ist und da muss ich mal irgendwann auch nochmal drüber nachdenken oder schreiben, da habe ich letztens mit Kim Körber drüber gesprochen, über was ist eigentlich echte Zusammenarbeit und Kollaboration und wie viel Freiwilligkeit braucht das eigentlich und wie viel Ergebnisoffenheit. Und bei vielen Sachen haben wir aber keine Ergebnisoffenheit. Also zum Beispiel jetzt, wenn wir unser Gehaltsthema jetzt nehmen, a, wir müssen natürlich Gehälter bezahlen und B, wir sind auch an einen Rhythmus gekoppelt, der gesetzlich vorgegeben ist und so weiter und so fort. Wir müssen hier irgendwie eine Entscheidung treffen. So, und das muss passieren. Also wir können hier nicht in einem ganz freien Raum diskutieren. Und bei gesellschaftlichen Themen ist es ja genau gleich. Also du hast auch, du hast einen bestimmten Rahmen, in dem bestimmte Dinge passieren. Und es gibt auch quasi den Nationalstaat so. Und in diesem Rahmen müssen Dinge passieren und verhandelt werden. Und das finde ich sehr cool, also diese Möglichkeiten. Und danke, dass du uns nochmal darauf hingewiesen hast. Und ich mache mal den Übertrag jetzt zum Individuum.

SPEAKER_00

Ich würde auch was ergänzen, was ganz wichtig ist zu diesem Themenblock nochmal, weil, also zwei Dinge. Das erste ist, was Marie gesagt hat mit Konsens. Da würde ich sagen, das ist hoffentlich etwas, was wir, oder ich glaube, das liegt, steht der Demokratie ein bisschen im Weg, dieser Begriff, weil es suggeriert, alle müssen happy sein mit der Entscheidung. Deswegen ist ja eigentlich meine bevorzugte und zum Teil ja wahrscheinlich auch bei uns in der Company der Konsent. Und das ist der kleine, aber feine Unterschied, nämlich, wenn ich sozusagen sage, ich kann damit jetzt einigermaßen leben. Es ist okay. Es ist jetzt nicht ein Eingriff in die meine Würde und so weiter. Dann ist es schon was ganz anderes, wie wenn man sagen würde, jeder muss gleich irgendwie happy mit der Entscheidung sein und so.

SPEAKER_05

Super, und das Buch heißt Plurality. Also genau deswegen, also weil Konsens auch nicht die Illusion beschreibt, dass du dann irgendwie 99% Zustimmung zu irgendwas hast, sondern du musst halt Entscheidungen treffen. Und das, da kommen wir nie von weg, dass es in einer pluralen Gesellscha komplex und schwierig ist. Aber wenn du dich irgendwie einigen kannst und irgendeine Form von Fortschritt ermöglichen kannst, irgendeine Form von Entscheidung, dann ist das gut.

SPEAKER_00

Genau. Und dass Konflikte erstmal per se nichts Schlechtes ist, sondern die Art und Weise, wie mit Konflikten umgegangen wird. Und deswegen ist das, was wir ja ausprobiert haben, eher eine Sichtbarmachung und Ordnung und Einordnung von Konflikt, als wie wenn man da so reinrauscht und dann sich gegenseitig irgendwas an den Kopf wirft, sondern man hat über diese KI eine Form von Mediation. Und hier ist ja ganz wichtig, diese menschliche Mediation ist ja immer abhängig von Vertrauen. Also vertraue ich der Mediatorin, dem Mediator, der das jetzt macht. Wenn das nicht gegeben ist, scheitert ja das ganze Ding. Und jetzt könnte man sagen: Ja, gut, aber eine KI ist die wirklich neutral und so. Hier ist ja nochmal der kleine Kicker bei uns. Es ist transparent, der Prompt ist transparent für alle. Also jeder kann sozusagen die Kriterien der Moderation nachvollziehen und gegebenenfalls dafür stimmen, hey, das ist ja unfair, wie auch immer. Das ist sozusagen der Clou an der Sache, so dass das wirklich eine einige, also perfekt würde ich ja nie sagen, aber eine sehr ideale Form ist, wie diese Gestaltung dieser Konfliktklärung und so weiter an der Stelle wirklich funktioniert. Also weil diese.

SPEAKER_05

Aber auch das kann man noch das kann man noch radikaler machen. Eigentlich müsstet ihr auch genau sehen, wie das Modell überhaupt aufgebaut ist. Und das ist, glaube ich, ganz wichtig, wenn wir über diese Systeme reden. Wir dürfen halt auf keinen Fall so ein System und die ganzen positiven KI-Effekte aufbauen, auf was, was wieder denselben Logiken gehorcht, die uns heute in diese Diskussion gebracht haben. Sondern es ist quasi die Grundlage von allem, ist, dass auch die Systeme selbst offen und transparent sind und eben sich nicht so leicht missbrauchen lassen, sich nicht so leicht monopolisieren lassen. Weil sonst, wenn du am Ende eine KI-Firma hast, die irgendwie so einen Konsens oder so ein demokratisches Diskussionstool steuert, dann ist das vielleicht noch gefährlicher, als wenn du einige wenige KI-Firmen hast, die die großen Diskussionsplattformen steuern, so wie es heute ist.

New Literacy And Workplace De Skilling

SPEAKER_01

So, dann das ist jetzt mein Clou, aber mein Hinweis zum Übergang zum Individuum, glaube ich. Weil was ich da nämlich unbedingt sagen möchte, ist, ich glaube, man muss sich selbst sehr bewusst werden über verschiedene Rollen, die man in diesem neuen Konstrukt spielt und mitspielt. Und das eine ist quasi, was ist eigentlich meine Expertise? Also was muss ich wirklich wissen? Also wo darf ich nicht in der Bell Curve, die du vorher beschrieben hast, in dieser Glockenkurve, wo darf ich nicht einfach in der Mitte die Informationen annehmen und sagen, naja, okay, also der hat mir eine Zahnbürste empfohlen, okay, dann nehme ich die einfach. Passt schon. Sondern wo bin ich als quasi Entscheidungsträgerin wichtig und muss deswegen mich auch gut auskennen und muss auch verstehen, quasi, worauf jetzt hier Sachen laufen. Quasi, das ist einmal in einfach Subject Matter Expertise, also wo auch immer dein Fachgebiet sozusagen ist, dass man sich da wirklich auskennt und weiterbildet, damit man mit der KI wirklich in ein gutes Barring gehen kann, ne, und auch die, also das evaluieren kann, was da passiert und gegebenenfalls einmal auch ablehnen kann. Und das andere ist, ich finde schon, jede Person, die damit arbeitet, hat einen gewissen, hat eine Verantwortung, wie im Internet auch, zu gucken, wo bewege ich mich hier eigentlich? Also, ne, auf welchen Plattformen und in welchen Diskursräumen bin ich hier und was bedeutet das, hier teilzunehmen oder nicht teilzunehmen? Und dann genau das, was du gesagt hast, ne? Also zum Beispiel nehmen wir jetzt, übernehmen wir eine Lösung, wo jemand sagt, hey, wir sind eine Diskursplattform, auf der ihr eure kritischen Gespräche machen könnt. Oder haben wir nicht sogar jetzt die Möglichkeiten, ein Tool selber uns zu bauen? Weil auf einmal haben wir diese Möglichkeiten und können das selber programmieren. Lasst uns das auch so machen, dass das quasi unseren Ansprüchen entspricht und unseren ethischen Rahmenbedingungen und Sachen quasi nicht blind zu übernehmen. Und ich finde, das ist bei den ganzen KI-Teilen noch sehr scary, weil ich finde, dass sehr technisch sich immer alles anhört. Aber auf der anderen Seite löst sie ja auch diesen technischen Zugang, dieses Problem sehr stark. Das heißt, auf einmal machen wir Sachen bei uns in der Firma, da hätte ich nie gedacht, dass wir die selber machen können. Hätte ich einfach niemals vermutet, aber es geht. Und dann finde ich es schon auch wichtig, quasi als Individuum sich damit auseinanderzusetzen, quasi, was ist möglich, was ist nicht möglich, was kann ich, was kann ich beitragen. Ja, und das nicht so passiv zu konsumieren.

SPEAKER_00

Genau. Soll ich noch ergänzen mit der Literacy, die mir so durch den Kopf gegangen ist? Und ich glaube, da waren schon ein paar Aspekte mit dabei. Kannst du ja direkt mal schauen, ob das da reinpasst. Also was meine ich mit Literacy? Es gab ja im Internetzeitalter irgendwann so dieses, wir brauchen Medienkompetenz und so weiter und dann brauchen wir irgendwie eine Orientierung, wie wir damit umgehen. Und da gab es mal diese sogenannten 4K, das war kritisches Denken, also kritisch Dinge zu hinterfragen, weil man auch da ja, sag ich mal, Fake-Sachen gegenüberstand und man schon Quellenkritik und all diese Sachen machen musste. Dann Kreativität, Kollaboration und Kommunikation, also das sind so die Kernkompetenzen, die man haben muss im sogenannten digitalen Zeitalter. Und jetzt müsste man ja überlegen, dadurch, dass die KI ja für mich auch so ein neuer Layer eigentlich nochmal über und im Internet ist, bräuchte man vielleicht nochmal ganz neue Kompetenzen. Und da hätte ich jetzt mal zumindest drei als Angebot. Das erste wäre nämlich die sogenannte epistemische Kompetenz. Episteme, um es mal diesen Fachbegriff zu übersetzen, ist sozusagen die Wurzel unseres Denkens. Also woher gibt es Grundannahmen, warum wir über Dinge denken, wie wir denken? Und das heißt auch verwiesen, vielleicht so, wer sich theoretisch da einlesen will, Michel Foucault hat sehr viel darüber nachgedacht, also zu sagen, was sind so die Grundstrukturen, wie wir Denksysteme haben, also wie wir zum Beispiel sehr westlich denken, weil wir gewisse Annahmen haben und so weiter. Übertragen auf die KI bedeutet das, nicht mehr nur die Frage zu stellen, stimmt das? Sondern eher die nächste Frage zu stellen, woher weiß ich eigentlich, ob es stimmt, wenn die Quelle am Ende eigentlich eine Blackbox ist? Also weniger das Faktenchecken, als vielmehr das System dahinter zu hinterfragen und zu verstehen. Also auch sich klarzumachen, ich glaube, das war ja das, was ihr auch die ganze Zeit schon gesagt habt, sich klar zu machen, wem gehört das eigentlich, wie funktioniert die Technologie und wie generiert der überhaupt dieses Wissen, dass das halt stochastisch ist und so weiter und so fort. Das muss man einfach verstehen. Das zweite ist, ich glaube, das hast du auch schon so angedeutet, Mary, promptunabhängiges Urteilsvermögen. Das heißt, nicht nur der Input entscheidet, sondern auch die Bewertung des Outputs. Das setzt aber auch entsprechend so ein gewisses breites Domänwissen voraus, das man auch nicht einfach so wegautomatisieren kann. Also es geht dann eher um die Einordnung auch der Ergebnisse. Also ein Arzt, der ist mit super ausgestattet mit KI-Diagnosen, aber erst die Einordnung dessen, weil er halt ein Domänenwissen hat, weil er halt Querbezüge weiß, kann er überhaupt dieses Ergebnis vernünftig einordnen, weil er einfach mehr weiß. Und da würde ich sogar kritisieren, es wäre ganz gut, wenn das viele Ärzte sozusagen auch so machen würden in Zukunft, weil ich habe eher das Gefühl, dass da immer mehr verloren geht, weil wenn ich fünf Minuten beim Arzt bin, erkennt sozusagen weder meine Domäne noch, was ist sozusagen gerade im gesamten Krankheitsspektrum irgendwie vorhanden. Und dann ist man ja immer sehr pointiert, du hast das Symptom, dann kriegst du die Tablette. Aber das meine ich mit sozusagen, man muss ein anderes Urteilsvermögen haben, was dann das Ergebnis ist. Und als dritten Punkt würde ich sagen, die Zielsetzungskompetenz. Also wofür nutze ich das jetzt eigentlich? Also, ist das, wofür ich es einsetze, auch dienlich für die Dinge, die ich tun will? Ist es im Sinne der Würde des Menschen und so weiter? Also, für was optimiere ich eigentlich irgendwas? Und was ja oft fehlt Leuten in der KI-Nutzung, ist, was willst du denn jetzt eigentlich damit machen? Da sind irgendwie ganz viele überfordert. Und das war aber auch schon immer so in diesem ganzen Digitalbereich. Das nennt man ja dann die sogenannte User-Story oder ihr Use Case. Was will ich damit eigentlich machen? Und was ist die Auswirkung dessen? Und ich glaube, das sind so die drei großen Punkte, die mir dazu nochmal einfallen, die das so verändert und die man vielleicht nochmal on top packen müsste.

SPEAKER_05

Also hast du 4K und Easy. EEZ, epistemisches Denken, Einordnung, promptunabhängig und Zielsetzungskompetenz. Auch Verurteilsvermögen. Holz.

SPEAKER_00

Sehr gut. Das setzen wir jetzt mal so.

SPEAKER_05

Akronymveränderungskompetenz haben wir auch.

SPEAKER_01

Ja, sehr gut. Also würde ich allen voll zustimmen. Und ich glaube, das Ironische daran ist, die KI erleichtert einem halt sehr viel, so wie ja auch quasi Google einem einfach wahnsinnig viel erleichtert hat. Und auch Wikipedia einem wahnsinnig viel erleichtert hat. Also diese ganzen Informationsbereitstellungsmaschinen. Und alle haben ja eigentlich dazu geführt, dass man ein bisschen weniger darüber nachdenkt, woher weiß ich das jetzt eigentlich, weiß ich, ob das richtig ist, sondern ein bisschen mehr dahin geht. Na, das war halt mein der erste Suchvorschlag oder das habe ich jetzt auf Wikipedia gelesen und das ist es jetzt einfach. Und auch mit der KI, ich finde, also der, ich weiß nicht, was allen so geht, aber mein Workload steigt dadurch, dass ich mehr machen kann, dadurch habe ich das Gefühl, ich bin mehr am Machen und müsste ja aber eigentlich sagen, nee, nee, diese extra Zeit sollte ich nicht mit extra Arbeit füllen, sondern sollte ich damit füllen, quasi mein Urteil zu prüfen, mein Wissensher-Dings zu prüfen, zu gucken, ist das eigentlich die User-Story, die ich machen möchte hier gerade, ist das der richtige Use Case? Und so weiter. Also quasi dieses, alles, was du gerade genannt hast, Patrick, sind ja die Sachen, wo man sagt, man muss einen Schritt zurücknehmen und muss von einem anderen Blickwinkel da drauf gucken und das mal selbst überprüfen. Und das ist ja Zeit und Beschäftigung, die man mit sich selber irgendwie aufbringen muss, um das hinzubekommen. Deswegen ein sehr guter Reminder.

SPEAKER_05

Das ist ja auch ein großes Wofür. Und ich finde, das ist auch ein bisschen das Tragische, dass das den Te-Filmen so gut gelingt, die können uns ja Dinge umso besser verkaufen, umso mehr wir unser Leben als umständlich wahrnehmen. Also alles, was die vor allem die Tech-Plattformen verkauft haben in den letzten Jahren, ist ja immer so, oh, kochen ist so mühsam, wäre es nicht geil, wenn du es bestellen könntest oder wäre es nicht toll, wenn, und es ist ja auch toll. Es ist super toll, wenn ich vom Handy, während ich aus dem Büro rausgehe, ein Taxi bestellen kann und nicht mal irgendwo hingehen muss oder irgendwo anrufen muss. Also so diese convenience Gedanke. Aber das führt so ein bisschen dazu, glaube ich, dass wir auch forgess, wie viel Spaß es uns eigentlich als Menschen per Natur, per Grundbetriebssystem eigentlich macht, auch tricky Dinge zu lösen. Und auch nachzudenken und auch sich mit komplexen Themen zu beschäftigen, weil uns halt von außen und durch alle möglichen Umstände und geopolitisch Lager und sowas so sehr weiß gemacht wird, dass alles immer anstrengend ist und dass ich eigentlich gucken muss, wie ich immer den einfachsten Weg gehe. Aber das finde ich auch so schön, an dem, was Patrick beschrieben hat, wie er LLMs nutzt, um sich einzugraben und so. Ich glaube, das dürfen wir einfach nicht vergessen, dass wir eigentlich als Menschen auch dafür gemacht sind, zu denken und auch genau in dem Unbekannten irgendwie zu suchen, wie kann ich da jetzt noch irgendwas rausfinden über die Welt? Warum ist eigentlich meine Hand warm auch hier rechts von dem Regenbogen, von dem Prisma, was ich hingestellt habe? Also das macht überhaupt keinen Sinn, das passt nicht zu dem, was ich dachte, dass ich weiß, kann ich jetzt irgendein Experiment mir ausdenken, um rauszufinden, was da eigentlich los ist auf der Welt. Das haben Menschen schon immer gut gemacht. Und ich glaube, dass wir Technologie nutzen können, um diese Fähigkeit noch zu nutzen und dann da mega viel Spaß mit zu haben auch.

SPEAKER_00

Und das ist ein super wichtiger Punkt, weil die Gefahr, dass das verloren geht durch eine, ich sag mal, unreflektierte Nutzung, ist sehr hoch. Das beobachten wir ja, wenn wir zum Beispiel. Insbesondere im Corporate Kontext. Genau, insbesondere im Corporate Kontext, genau. Und darauf wollte ich nämlich hinaus, nämlich im Sinne von, wenn wir jetzt diese ganze Fleißarbeit auslagern in die KI, also Recherchen machen, Präsentationen, das waren ja normalerweise Jobs für Juniors, also zumindest in der Wissensarbeit wohlgemerkt, die fallen jetzt weg. Und die, das war aber gleichzeitig ein Lernvehikel für diese Leute, um überhaupt Domänenwissen aufzubauen. Also die Fleißarbeit selbst war Lernarbeit für diese Leute. Und das heißt, Leute wie ich, wie vielleicht auch ihr, ihr seid jetzt nicht ganz so viel alt wie ich, die sozusagen, aber ihr habt mindestens auch enormes Erfahrungswissen und so. Aber wenn du gar nicht mehr die Gelegenheit hast, Erfahrungen auch zu machen und Experimente und Erfahrungen aus Experimenten, sondern du bist nur noch vor dem Rechner, um stupide Fleißarbeit dann auszulagern, dann haben wir irgendwann ein echtes Lückenproblem. Und dann kommen wir in so einen ganz komischen Kreislauf, weil wir dann auch nicht mehr vernünftig bewerten können, was die Maschine am Ende rausspuckt, weil uns die Gegenpause fehlt, also dieses Gegencheck, also das droht zumindest damit. Das bedeutet aber, man muss da aktiv gegensteuern und sich was anderes überlegen. In Ausbildung, in Bildung, in wie auch immer. Nur man muss sich gewahr werden, das ist ein Problem, also ein Lösungsproblem an der Stelle.

School, Trust, And Rebuilding Hope

SPEAKER_01

Also Patrick, ich werde dein Oids oder dein Ease oder dein Easy oder wie auch immer, wie wir das am Ende nennen, auf jeden Fall hijacken und klauen. Weil wir haben gerade in der Firma eine riesen Diskussion darüber, was macht das, also wie bauen wir diese drei Kompetenzen eigentlich auf in Unternehmen auch? Also meine These ist, das wird Unternehmen komplett umwälzen, wenn wir nicht mehr auf diesen regulären Strukturen das ausbauen, weil wir zum Beispiel weniger Juniors brauchen, weil andere also weil Bots die Arbeit machen, wenn der demografische Wandel kickt und quasi wir auf einmal so ein Wissensweitergabethema haben. Und wir versuchen das mit der KI aufzufangen, was erstmal, ja, nice, das wird einiges auffangen, aber andererseits, das wird die Grundlogik, von wie Leute durch Organisationen laufen im Laufe ihres Lebens von Grund auf verändern. Also ganz, ganz, ganz fundamental, ich bin davon überzeugt, wir diskutieren gerade sehr viel in der Firma darüber, ob das stimmt, ob das nicht stimmt, bla bla bla und so weiter. Patrick scheint auf meiner Seite zu sein und es wird dazu hoffentlich bald ein Paper geben und ich werde deine drei Kompetenzen dafür hijacken, weil ich glaube, die bauen mir jetzt den Rahmen dafür, zu was ist es eigentlich, was eigentlich aufgebaut wurde über Zeit in einem Unternehmen. Weil das ist ja, was du machst. Also wie du gesagt hast, als Junior kommst du rein und du hast null Urteilsvermögen und du weißt auch ehrlich gesagt gar nicht, was die Ziele sind und wofür du gerade hier irgendwas machst, sondern du läufst einfach erstmal so ein bisschen mit und machst halt, was man dir sagt, so, keine Ahnung, weil man lernt ja erstmal seinen Job. Und dann über Zeit merkt man, ja, das macht doch so gar keinen Sinn. Ich könnte das ja anders viel besser machen. Okay, und dann optimiert man sich selbst, dann optimiert man den Job, dann optimiert man die Branche, die Domäne und so weiter, dann trägt man dazu bei, dann hat man neue Kombinationen, wo man sagt, das ist eigentlich eine geilere Idee, lass mal dahin machen, dann hat man eine Innovation und so weiter und so fort. Und diese Dinge, klar kannst du die von außen als Disruptor irgendwie machen, aber das ist ja nicht die einzige Tätigkeit, die man braucht in Unternehmen. Man braucht ja nicht nur den Disruptor, man braucht ja auch Leute, die Sachen gut machen und Sachen gut einschätzen können und sagen, doch, das machen wir jetzt so. Und wer traut sich sowas in Zukunft noch zu? Und das ist eigentlich das Thema, glaube ich, wo ich eher bei diesem Taste-Ding dann wieder angelangt bin, ist, wir brauchen das nicht so sehr in der KI, diesen Taste-Teil, sondern wir müssen das weiterhin bei uns ausbilden, damit wir mit der KI arbeiten können. Aber ja, das wird eine große Organisationsfrage, da bin ich sehr on fire für.

SPEAKER_00

Absolut. Vielleicht noch eine kleine Anekdote, die ich die ganze Zeit unterbringen wollte, die nochmal vielleicht deutlich macht, so auch am Ende, wohin auch eine KI-kritische Haltung am Ende führt, nämlich dann doch zu dem gleichen Ergebnis, dass KI wiederum gehypt wird, unabsichtlich. Und zwar gab es eine Situation bei meinem Sohn, der macht gerade Abitur und er hat so einen Übungsaufsatz für Deutsch abgegeben. Freiwillig quasi. Einfach um zu sehen, wie ist sozusagen, also es ist halt ein Angebot der Schule, um zu sehen, wie würde ich jetzt sozusagen abschneiden in der Prüfung. Und dann hat die Lehrerin allen erst. Ja, absolut. Also es ist ja auch freiwillig und so weiter. Und wenn man das wahrnimmt, ist ja super. Und dann hat die Lehrerin allen Ernstes gesagt, ja, aber das hast du auch mit einer KI gemacht. Und du denkst, what? Warum würde er das tun? Wie sollte er das machen? Das macht gar keinen Sinn. Aber was damit halt passiert, ist erstmal die Entwertung seiner Denkleistung und seiner Arbeit. Und beim nächsten Mal, ich meine, er ist Gott sei Dank ein bisschen reflektiert, würde ich mir auch sagen, ja, da kann ich ja gleich KI nehmen, wenn du denkst, das ist KI.

SPEAKER_05

Ich hoffe, er nimmt es als Kompliment, dass der Aufsatz scheinbar so polished war, dass sie nicht glauben konnte, dass das von einem Menschen stammt.

SPEAKER_00

Schon, aber es ist natürlich trotzdem immer noch eine Kränkung und eine Abwertung letztendlich. Also das und dann tatsächlich die Frage, ja, warum sollte ich es dann überhaupt nochmal machen, wenn ich so eine Rückmeldung bekomme? Und das ist natürlich dann die Gefahr, die dann, weil das ist ja eher aus so einer unreflektierten, ich kritisiere KI und der Witz ist ja ganz ehrlich, auch Lehrerinnen und Lehrer nutzen jetzt KI, um Dinge zu korrigieren und so weiter. Und dann muss man sich natürlich dann, das wäre dann vielleicht eine Frage der dritten Sendung, die wir machen können, wie müsste sich Schule eigentlich und Bildung anpassen. Aber das wollte ich nochmal loswerden, dass auch solche komischen Dinge passieren können. Das ist ja eh nicht so, wie wenn ich ein Video sehe und denke, das ist doch KI und das ist es dann gar nicht. Also es ist schon sehr interessant, wie umwälzend diese Technologie gerade und wie schnell umwälzend es sozusagen auch in die gesellschaftliche Richtung geht. Also viel schneller als das Internet damals.

SPEAKER_05

Ja, das ist vielleicht die Gemeinsamkeit zwischen den Geschichten aus den Organisationen und der Schule und wie verändert sich das Internet. Ich finde, KI ist einfach so ein sehr helles Licht, das durch diese ganzen Cracks in den Systemen scheint. Und das Problem in der Schule ist wahrscheinlich, dass überhaupt Aufsätze schreiben und Aufsätze korrigieren, eh schon nicht der allerbeste Indikator ist, für ob jemand was kapiert hat oder so, sondern auch irgendwie nur so eine Annäherung. Und dass das vielleicht schon länger aus der Zeit gefallen ist. Und KI bringt jetzt so viele Systeme wirklich an diesen Punkt, wo man nicht mehr ignorieren kann, wie kaputt das ist, wie es nicht funktioniert, wie wir eigentlich unzufrieden damit sind. Und das ist immer meine Hoffnung bei dem ganzen Doom-Gerede, dass wenigstens, wenn wir an den Punkt kommen, wo wir alles niederbrennen müssen, oder irgendwelche Milliardäre alles für uns niederbrennen, vielleicht kriegen wir es hin, dass wir dann gemeinsam überlegen, wie bauen wir es wieder auf und bauen wir es wieder schöner auf. Sehr schön.

SPEAKER_01

Ich hätte mir kein besseres Schlusswort überlegen können. Marie, vielen, vielen Dank, dass du nochmal hier warst, um mit uns quasi über KI und den Tod des Internets. Und den Tod von allem. Und den Tod von allem, aber quasi aus den Aschen bauen wir schöne Sachen wieder auf zu sprechen. Es hat großen Spaß gemacht. Danke dir auch, Patrick. Und bis bald. Danke euch. Danke euch beiden. War richtig cool.

SPEAKER_05

Tschüss.

SPEAKER_04

Money, money, I want more money. I want more. I don't even know why.