
Corporate Therapy
Noch ein Business Podcast! Juhu! Wer braucht denn sowas?
Corporate Therapy ist ein kritischer Management Podcast – und der Name ist Programm: Wir legen darin „die Corporate” und gelegentlich auch uns selbst auf die sprichwörtliche Couch. Gemeinsam versuchen wir, Probleme und Phänomene rund um Arbeit und Organisation besser zu verstehen und vielleicht ab und an auch eine Lösungsstrategie zu entwickeln – jedoch ohne Garantie auf Genesung!
Wir sind Human Nagafi, Mary-Jane Bolten und Patrick Breitenbach.
Neben den Beiträgen unserer großartigen Gäste aus Wissenschaft, Politik und Wirtschaft freuen wir uns auch sehr über Fragen, Kritik und Anregungen von euch. Dazu könnt ihr uns entweder per Mail oder LinkedIn schreiben oder euch direkt zu einem unserer Live-Podcasts einschalten und mitdiskutieren. Viel Spaß und gute Erholung.
Corporate Therapy
Episode #131 // KI im Unternehmen: Grenzen und Potenziale // mit Dr. Antonio Krüger
Schickt uns euer Feedback zur Episode
In Episode 131 tauchen wir mit Dr. Antonio Krüger, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), in die aktuelle KI-Landschaft ein und erforschen, wie sie unsere Arbeitswelt verändert. Wir beleuchten Missverständnisse über KI, diskutieren ihre Potenziale und Risiken sowie Deutschlands Position im globalen KI-Wettbewerb.
Wir nutzen die knappe Zeit, ihm unsere Fragen zu stellen und bekommen Einsicht in aktuelle Nutzung, Chancen und Risiken, sowie die gesetzliche Lage zum Thema.
Viele glauben, ja, nein, sie wollen sich später mal nicht von einem künstlichen System pflegen lassen, irgendwie Und ich sage, das ist eine Irrglaube, weil man einfach die Realität der heutigen Pflege so ein bisschen aus den Augen verloren hat. Und ich glaube im Gegenteil, künstliche Systeme können viel wertungsfreier einen bei ganz intimen Handlungen im Prinzip unterstützend helfen, weil sie eben keine Subjekte sind, sondern Objekte.
Speaker 2:Hallo und herzlich willkommen zur Corporate Therapy. Ich habe heute was zu feiern, denn seit langem, langem bin ich endlich mal wieder im Studio mit Patrick Breitenbach. Hi Patrick, wie geht's dir?
Speaker 3:Hi, mary-jane, wunderbar. Ich freue mich, dass wir wieder podcasten.
Speaker 2:So, wir podcasten ja öfter zusammen, aber eigentlich ist das ja nur was nebenberuflich, hobbymäßiges. Wir haben ja eigentlich auch noch einen Dayjob. Im echten Leben sind wir Managementberater mit Schwerpunkt auf Organisationsstrategie, governance und Operating Models, und da verändert sich aktuell ziemlich viel, einmal für uns selber und wie wir arbeiten, aber auch im ganz Allgemeinen, was Unternehmen leisten können und wie sie das organisieren, auch immer mehr von unseren Kunden arbeiten entweder in ihrem Portfolio oder in ihren Prozessen mittlerweile sehr anders, denn seit ein paar Jahren können wir auch künstliche Intelligenz benutzen, und ich sage auch, weil durch die LLMs, wie zum Beispiel ChatGPT und Co, wurde da einiges sehr viel zugänglicher. Ich persönlich kann mir das mittlerweile eigentlich fast nicht mehr wegdenken, das mittlerweile eigentlich fast nicht mehr wegdenken, und wir dachten uns, es würde sich da lohnen, einmal eine Momentaufnahme zu machen. Was ist eigentlich der Stand der KI aktuell, und zwar mit Bezug auf, wie wir arbeiten? Und dazu haben wir einen besonderen Gast hier, der uns hoffentlich alle unsere Fragen beantworten wird. Herzlich willkommen, dr Antonio Krüger.
Speaker 2:Hallo schönen Gruß in die Runde, freut mich, dass ich dabei sein kann. Herr Krüger, sie sind CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz, oder kurz DFKI, und in dieser Rolle hat man Sie gegebenenfalls auch schon mal gesehen, zum Beispiel in den Tagesthemen oder anderen Medien. Sie helfen nämlich über Ihr Sprechen der Öffentlichkeit, das Thema KI besser zu verstehen und auch politisch einzuordnen, aber sie sind auch selbst noch aktiv in der Forschung zu vor allem anwendungszentrierten Unterstützungssystemen, also immer dieses Interface zwischen Mensch und Maschine. Und sie lernen noch als Professor an der Universität des Saarlandes, sind also einmal auf der Metaebene, aber auch ganz nah an der Materie dran, und wir wollen sie heute einmal querbeet alles fragen, was uns zum Thema gerade beschäftigt. Ich hoffe, sie sind vorbereitet, wir haben dafür aber nicht so viel Zeit, deswegen lege ich direkt los und starte mal mit dem Hintergrund. Können Sie uns einmal erzählen, was macht denn das DFKI eigentlich?
Speaker 1:Ja, das DFKI ist ein Forschungsinstitut. macht denn das DFKI eigentlich? Ja, das DFKI ist ein Forschungsinstitut, welches sich vor allen Dingen dem Transfer verschrieben hat. Das bedeutet, Ergebnisse der KI-Grundlagenforschung in die Anwendung und in die Gesellschaft hineinzubringen. Und das machen wir meistens über Projekte, ganz viele Projekte, die am DFKI stattfinden, in ganz vielen Branchen, zu ganz vielen Themen. Wir sind gemeinnützig. Das bedeutet, viele der Projekte sind auch von der öffentlichen Hand gefördert, Also haben dann häufig auch einen gewissen Anwendungs-Forschungscharakter. Aber es ist immer inspiriert durch Probleme aus der Anwendung, Und ganz viele unserer Projekte sind eben auch mit Industriebeteiligung sind Dienstleister dabei. Selbst mit Handwerkern und Handwerksbetrieben machen wir Projekte. sind eben auch mit Industriebeteiligung sind Dienstleister dabei. Selbst mit Handwerkern und Handwerksbetrieben machen wir Projekte. Also, es ist ganz breit.
Speaker 2:Können Sie uns vielleicht mal so ein, zwei Projekte exemplarisch erklären, beschreiben, damit wir das nochmal so ein bisschen verstehen.
Speaker 1:Klar. Also, als GGMBH haben wir natürlich auch Gesellschaften aus der Industrie. Da sind große Tech-Konzerne dabei Google, microsoft Hardware, auch Nvidia, intel, aber auch die deutschen Automobilbauer, die wirklich ja, sagen wir mal, schon auch einige Herausforderungen auf der digitalen Seite haben, und mit denen arbeiten wir sowohl um das Erlebnis im Auto selber, was ja immer stärker erlebnisorientierter wird. Je mehr Fähigkeiten das Auto übernimmt, desto mehr ist das ja nicht ein reines Interface zum Fahren, sondern ein Interface in den Informationsraum und Kommunikationsraum, wo dann zum Beispiel wir mit Automobilherstellern untersucht haben wie kann verstärkt Gestik, blickbewegung, wie können die tatsächlich im Auto unterstützend wirken, auch zwischen den einzelnen Passagieren zum Beispiel? Da haben wir Dinge gemacht.
Speaker 1:Wir haben für Mercedes das ist tatsächlich dann auch in den großen Automobilen von Daimler, sind die auch drin eine Gestenerkennung zum Beispiel dabei geholfen, dass man nicht nur auf Dinge im Auto zeigen kann, sondern auch draußen und Fragen zum Beispiel zu den Dingen draußen stellen kann. Das haben wir gemacht. Dann aber auch in der Produktion zum Beispiel. Das ist für den Mittelstand ja ganz, ganz wichtig. Da haben wir eine ganze Reihe von innovativen Konzepten. Wir haben in Kaiserslautern eine Smart Factory, wo man neueste KI in der Produktion auch sehen und ausprobieren kann mit ganz vielen Partnern aus der Industrie. Im Moment läuft gerade ein Projekt mit Volkswagen, wo es darum geht, in der Produktion null Fehler zu machen mithilfe von KI.
Speaker 1:Fehler sind in jedem Unternehmen, glaube ich, immer natürlich etwas, was anstrengend ist, weil eigentlich hat man die Prozesse alle schön das wissen Sie besser als ich hat man alle schön aufgesetzt, und so weiter. Wenn dann nicht irgendwie Dinge sind, die Unwägbarkeiten halten, die dazu führen, dass eine Ressource fehlt, dass etwas dann doch nicht so gemacht wird, wie es gemacht werden sollte, na klar, der Mensch natürlich auch, aber Maschinen machen auch Fehler, das darf man auch nicht vergessen. Also, gerade wenn es komplexer wird, können auch Maschinenfehler machen, und Fehler sind immer teuer und führen dazu, dass man ein Qualitätsmanagement einführen muss, was wirklich häufig Flaschenhalscharakter hat, und das so wirklich loszuwerden, das ist natürlich ein hehres Ziel, aber das sind Dinge, die man mit KI deutlich besser adressieren kann heutzutage, als man das zum Beispiel noch vor ein paar Jahren konnte.
Speaker 1:Um da mal nachzuhaken bei dem Thema Nullfehler. Wie kann man sich das vorstellen? Funktioniert das dann nur bei rein durchautomatisierten maschinellen Prozessen, oder gibt es da auch Schnittstellen? dann wiederum zum Menschen ist eben gerade das Interessante Das funktioniert natürlich auch in kompletten Dark Factories, also wenn man sagt, man hat da gar keinen Menschen mehr drin. Aber das ist besonders dann spannend, wenn man sagt okay, wir haben Teams von Menschen, die zusammenarbeiten, wo Fehler passieren. Wir haben vielleicht Teams von Menschen und Maschinen, die zusammenarbeiten, wo Fehler passieren, und wir haben auch Teams von Maschinen. Da wären wir dann wieder bei der Automatisierung, wo trotzdem Fehler passieren halt. Und wir setzen bei diesem Projekt wirklich an allen Ebenen an. An allen Ebenen, wo Fehler passieren können, haben wir halt Monitor und Vorhersageprozesse, unterstützungsprozesse auch für die Kooperation zum Beispiel in menschlichen Teams oder in Teams, wo Menschen und Roboter was zusammen machen.
Speaker 1:Und ich sag mal so, das ist natürlich das Ziel, null Fehler zu bekommen. Das weiß ich nicht, ob man das vielleicht jemals erreichen wird. Das ist, glaube ich, mehr eine philosophische Fragestellung. Man kann ja auch einfach sagen, man kann ja auch bei den Fehlern Abstriche machen und sagen, das ist kein Fehler mehr. Also man kann sich ja von beiden Wegen drauf zubewegen. Aber das Entscheidende ist eigentlich, dass zu bewegen, aber das Entscheidende ist eigentlich, dass man explizit Fehler modelliert erkennen kann und dann auch gleich Abhilfe hat. Und gerade Lernverfahren ich meine KI, die dazulernt ist natürlich innerent auch in der Lage, ganz schnell aus dann vielleicht noch sporadisch auftretenden Fehlern zu lernen und die dann beim nächsten Mal mit zu berücksichtigen.
Speaker 3:Und wie kann ich mir da die Interaktion halt vorstellen? Also ist das ich meine, die meisten kennen ja diese Modelle mit GPT und so weiter Ist das so eine Form von Interaktion?
Speaker 1:Ja, das kann so eine Form sein Im Moment wir docken natürlich an die Dinge an, die man in so einem klassischen Produktionsprozess hat. Das sind häufig heutzutage ja auch zum Beispiel Monitorsysteme Also es ist relativ profan dann am Ende, wie kommuniziert wird Aber vermehrt auch Brillensysteme zum Beispiel, die dann direkt per Augmented Reality entsprechende Handlungsanweisungen, feedback einblenden, insbesondere dann nicht immer, sondern insbesondere dann wenn Handlungsschritte kommen, von denen das System weiß, dass die Fehler anfällig sind, Und dann kann man durch relativ einfache, zum Beispiel durch einfache Hervorhebung und Unterstützung und Feedback-Mechanismen kann man schon solche Fehler dann frühzeitig sagen wir mal verhindern, indem man Handlungen in die richtige Bahn lenkt, ohne zu invasiv und zu gelernt daherzukommen. Ich denke, solche Techniken hat man dann in der Regel oder muss man entwickeln, damit dann auch Systeme entstehen, die dann nicht als bevormundend, sondern als unterstützend wahrgenommen werden, was eben auch ein wichtiger Faktor ist.
Speaker 2:Jetzt gehen mir hundert Sachen durch den Kopf, aber ich möchte jetzt mal kurz nochmal darauf einspringen, weil das so gut anknüpft. Also, wir beobachten bei uns im Team ganz privat sozusagen, dass wir, wenn wir oder ich nehme es mal nur auf mich, wenn ich mich vorbereite für irgendwas oder ein besonderes Gespräch führen muss oder irgendwie sowas, wenn ich dann mit der KI in so einen Feedback-Prozess eingehe, das, was Sie gerade gesagt haben, dass die KI nicht zu belehrend ist, aber trotzdem mir sagt, wo ich mich verbessern kann, das ist ja typischerweise eine Sache, die aus einer Mensch-Mensch-Interaktion kommt. Also früher gab es dann halt irgendwie Gespräche oder Feedback-Gespräche, oder man hat sich irgendwie ein Video gemacht, und das musste man dann selber nochmal angucken, und es war ganz schrecklich, peinlich und solche Sachen. Das verändert sich jetzt so ein bisschen. Also nur weil Sie es jetzt gerade so explizit gemacht haben mit diesem Nicht-Belehrend.
Speaker 2:wie große Auswirkungen haben solche Gedankengänge bei Ihnen in der Forschung? quasi, dass man sagt, menschen möchten auch nicht, dass man so sagt nee, das war falsch, aber vielleicht kann die Maschine das besser sagen. Also, was sind da Ihre Erkenntnisse?
Speaker 1:Also, tatsächlich ist es so, dass wir uns damit schon auch intensiv beschäftigen Und eine ganze Reihe gerade im Training. Zum Beispiel Wir haben ein größeres Projekt gehabt, wo wir eine KI gebaut haben, die in Form eines Avatars einem dabei unterstützt, bewerbungsgespräche zu führen, und da geht es ja natürlich schon. Das ist natürlich schon etwas, was nah an der Persönlichkeit dran ist, was dann an Korrekturen und Feedback kommt und so, und dabei berücksichtigen wir auch tatsächlich die Reaktionen des Gegenübers, und zwar nicht nur die verbale, sondern auch die nonverbale. Das ist eben auch ein ganz wichtiger Aspekt, und was man dabei feststellt ist das ist vielleicht auch gar nicht so verblüffend ist, dass tatsächlich die Benutzerinnen und Benutzer da schon offener sind bei einem künstlichen System als beim menschlichen System, weil Also solange klar ist, dass die Daten nicht geteilt werden, zum Beispiel und solche Sachen, das kann immer ein bisschen beim technischen System ein Problem sein, aber wenn das geklärt ist, dann ist rechtfertigterweise der Eindruck da, dass die Systeme ja nicht bewerten, in dem Sinne später mal nicht von einem künstlichen System pflegen lassen irgendwie.
Speaker 1:Und ich sage, das ist eine Irrglaube, weil man einfach die Realität der heutigen Pflege so ein bisschen aus den Augen verloren hat, und ich glaube, im Gegenteil, künstliche Systeme können viel wertungsfreier einen bei ganz intimen Handlungen im Prinzip unterstützend helfen, weil sie eben keine Subjekte sind, sondern Objekte, und das ist hilfreich an der Stelle. Und das ist, glaube ich, auch hilfreicher, dann mit Kritik umzugehen, weil das einfach die Menschen das Gefühl haben. Das sagt die nicht deswegen, weil sie irgendeine gewisse Weltstellung oder irgendeine pragmatische Beeinflussung vorhat, sondern einfach, weil das so ist, wie es ist. Das ist natürlich auch viel, sagen wir mal, ich sag mal subjektive Einschätzung, aber das ist etwas, was sich in unserer Forschung durchaus auch widerspiegelt, dass das Vorteile hat, einfach an der Stelle.
Speaker 3:Aber letztendlich ist das ja eine Form auch von Illusion, weil letztendlich macht die Maschine ja eine Bewertung, indem sie dann Folgeentscheidungen ja quasi letztlich trifft. Also das heißt, das ist ja schon spannend, dass auf dieser Kommunikationsebene zumindest man den Eindruck hat, dass hier keine Bewertung stattfindet. Aber eine Bewertung findet ja de facto statt. Hey Patrick, hier Patrick Breitenbach von 1789 Consulting. Sorry, dass ich diesen Podcast hier unterbreche, aber ich wollte nur sagen, wenn du diesen Podcast wirklich wirklich liebst, dann wirst du ganz sicher auf Spotify oder Apple Podcast eine 5-Sterne-Bewertung hinterlassen und das Ganze noch mit einem positiven Kommentar garnieren. Und wenn du dich dafür interessierst, was wir als Unternehmensberatung so machen, dann schau doch mal auf unserer Website vorbei, www.1789consultingde. Oder spreche uns direkt bei LinkedIn an. Wir freuen uns, und jetzt geht es weiter mit den Erkenntnissen. Viel Spaß.
Speaker 1:Die findet statt, genau, aber ich glaube, auf einer bisschen anderen Ebene. Das ist das Interessante, zumindest mal wahrgenommen. Ich erinnere mich zum Beispiel auch bei meinen Kindern, die immer dann in der Schule wirklich toll mitgearbeitet haben, wenn sie das für die Lehrkräfte gemacht haben, also für die Person, und naja, das ist dann sozusagen die positive Medaille. Ich kann mir wenig vorstellen, dass jemand für einen KI-Agenten irgendetwas tun würde, wirklich in dem Sinne, weil man ihm gefallen möchte oder sonst irgendwas. Diese schöne zwischenmenschliche Beziehung an der Stelle, die bricht dann natürlich bis zum gewissen Grad Zumindest mal wird das noch auf absehbare Zeit so sein, weil eigentlich jedem, zumindest mal für viele Leute, am Ende ja doch auch klar ist, dass es sich hier nicht um eigenständige Persönlichkeiten handelt, sondern um Computersysteme.
Speaker 1:Klar, irgendwann werden wir uns an eine Stelle bewegen das ist aber noch, glaube ich, ziemlich in der Zukunft wo man eben auch solchen KI-Systemen Persönlichkeitsrechte vielleicht zusprechen muss, ja aus unterschiedlichen Gründen. Man dann vielleicht sagt ja, ich möchte lieber ein dümmeres KI-System haben, was mich mit mir trainiert, weil es eben diese subjektive Komponente nicht hat. Aber das ist, wie Sie sagen, das ist im Auge des Betrachters und verändert sich dann auch langsam. Aber im Moment, denke ich mal, haben diese Systeme den Vorteil, dass sie eben keine so starke subjektive Komponente, wahrgenommene Komponente haben und dadurch eigentlich sehr gute Sparringspartner sind. So wie Sie sagen, man fühlt sich ja nicht beleidigt von Chat-GBT oder selbst nicht geschmeichelt. Man ist vielleicht ein bisschen genervt von der Art und Weise, aber so ernsthaft geschmeichelt in dem Sinne ach, das ist ja nett, dass mir das System das sagt, irgendwie, das ist ja nicht der Fall.
Speaker 2:Also, auf das Lob von Zertifizierung kann man, finde ich, auch verzichten. Wow, das ist ein toller Gedanke. Ja, du hast gelernt, so zu antworten, schön.
Speaker 1:Aber eine interessante Überlegung ist da auch, ob man nicht später wirklich auch dann zertifiziert nicht so kluge KI-Systeme hat, also KI, dass man wirklich sagt nee, ich will jetzt nicht mit einem vollen, mit Persönlichkeitsrechten ausgestatteten KI-Agenten sprechen, sondern nur mit einem, der nur ein Werkzeug ist. Also ich meine, da sind wir, wie gesagt, nicht. aber das kann ich mir gut vorstellen, dass es dann eben diese verschiedenen Kategorien geben wird und dass viele Leute sagen werden nee, nee, nee, ich arbeite lieber mit dem Werkzeug, weil da ist klar, wer sozusagen Herr und wer sozusagen Knecht ist an der Stelle.
Speaker 3:Es gibt ja auch den seltsamen Effekt, dass Leute ja höflich sind zur KI, was übrigens sehr viel Energie kostet und Geld.
Speaker 1:Habe ich neulich auch gelesen Jedes Token, jedes Input-Token, jedes überflüssige. Das führt aber eben auch dazu, leider, leider oder vielleicht auch Gott sei Dank ist menschliche Sprache total redundant, und Sie merken das ja selber. Wenn Sie einem der Chatbots irgendwie so einen zusammengestückelten Text geben, solange man halbwegs rausraten kann, was das ist, kommen Sie damit super zurecht, halt, und das heißt, sie könnten die Eingaben schon sehr komprimieren. Aber dann ist es, wird die Energieleistung auf Sie übertragen, sich zu überlegen, was sozusagen das beste Protokoll ist, und es ist dann nicht mehr sonderlich menschenzentriert an der Stelle.
Speaker 2:Gibt es für Sie einen grundlegenden Unterschied zwischen dem, was wir jetzt undefiniert hier im Podcast als KI bezeichnen, und anderen Technologien? Oder ist das für Sie eigentlich nur eine Fortführung? ja, die Sachen sind jetzt halt potenter und können besser rechnen. Gibt es für Sie so eine grundsätzliche Unterscheidung da drin?
Speaker 1:Ich meine, im Moment ist es tatsächlich aus meiner Sicht ein sehr potentes Werkzeug. Dieses Werkzeug hat natürlich im Kern angelegt als andere Werkzeuge. Also ein Hammer wird immer ein Hammer bleiben, und ein Hammer kommt auch nicht auf die Idee, selber sich zu überlegen, wie er besser Nägel einschlagen kann, oder ob es überhaupt ein toller Lebenssinn ist, nägel einzuschlagen, oder ob man nicht was anderes machen sollte mit seinem Hammer-Dasein. Und KI-Systeme haben natürlich durch die Art und Weise, wie sie sich potenziell selber weiterentwickeln könnten, wenn sie die Umgebung beobachten, aus ihren Fehlern lernen, schlüsse ziehen und vielleicht zukünftig auch noch eine deutlich stärkere Form der Selbstreflexion haben, haben sie natürlich das Potenzial, sich selber zu verbessern und zu optimieren, natürlich das Potenzial, sich selber zu verbessern und zu optimieren.
Speaker 1:Und dann geraten wir in das rein, was manchmal so, oder dann würden wir reingeraten in das, was einige als Singularität bezeichnen. Das heißt, irgendwann sind die Systeme so gut, dass sie eigentlich sich selber besser verbessern können als irgendein menschlicher Wissenschaftler, programmierer oder Manager, und dann hätten wir natürlich so einen Punkt erreicht, wo aus dem Werkzeug etwas wird, was tatsächlich ich würde mal sagen, eine eigene Agenda auch entwickeln könnte, im Prinzip Und das ist schon ein großer Unterschied zu anderen Werkzeugen, die einfach Werkzeug sind und Werkzeug bleiben und Objekt bleiben und nicht Subjekt werden. Und im Moment sind wir da noch meiner Meinung nach. Andere denken, das ist nur ein paar Jahre weg. Ich glaube, das ist wirklich noch ein paar Dekaden weg, aber eben, ich sage auch nicht mehr 100 Jahre weg, wie ich vielleicht noch vor fünf Jahren gesagt hätte. Also, sie merken auch mal selber auch als Wissenschaftler, der da drin steckt, ich meine, das hätte ich mir vor 10, 15 Jahren ja auch nicht denken können, wo wir heute stehen.
Speaker 1:Und deswegen das Potenzial ist da drin. Ich sage nicht, dass es so kommen wird, auf jeden Fall, aber es ist dort drin, und das macht das schon zu einem anderen Werkzeug als bisherige Werkzeuge, die wir hatten. Auch die Breite der Einsetzbarkeit von sozusagen KI-Systemen, die irgendwie im Haushalt mithelfen, vielleicht Potenzial irgendwann bis zu welchen die ganze Firmen leiten, das ist sozusagen die Bandbreite, und es gibt wenig Werkzeuge oder eigentlich gar keine Werkzeuge, die sowas bisher machen konnten, und deswegen ist es schon auch tatsächlich anders und sollte auch anders behandelt werden, meiner Meinung nach.
Speaker 3:Wenn wir schon bei dieser Betrachtung sind und so Szenarien, zukunft und so weiter mit dem aktuellen Blick aus ihrer wissenschaftlichen Perspektive was sind im Moment so die vielleicht gefährlichsten Missverständnisse über KI, egal ob in Politik, medien oder Management, also wenn man da so einen kritisch nüchternen Blick drauf wirft, weil KI ist ja so eine riesige Projektionsfläche. Die einen sagen, sie übernehmen irgendwann die Weltherrschaft. Selbst irgendwelche Tech-Milliardäre haben schon Angst und haben sämtliche kritische Artikel, die sie irgendwie veröffentlicht haben, schon wieder rausgenommen aus dem Netz und so weiter. Wie blicken Sie da aktuell? Was sind so die Narrative, die großen, die sich vielleicht als wirklich herausstellen, oder die völliger Quatsch sind?
Speaker 1:Da gibt es mehrere Antworten. Also ich fange mal an mit Firmen no-transcript, das geht in den allerwenigsten Fällen, sondern es erfordert eine wesentlich tiefere Beschäftigung mit den Prozessen im Unternehmen. Das heißt, die müssen auch angepasst und geändert werden, gegebenenfalls Und die Menschen werden noch lange Zeit ein wichtiges Element in diesen Prozessen spielen, und man muss das gut integrieren, sonst verursacht das, wie häufig bei neuen Technologien, mehr Reibung als tatsächlich Lösungspotenzial, und ich glaube, das ist eine Sache, das heißt, man kann das nicht einfach so einkaufen. Also das ist ja das, was viele Unternehmen sagen jetzt warte ich mal, bis Microsoft mir was anbietet, wo ich dann irgendwie 40 Prozent produktiver werde. Das wird nicht so ohne Weiteres passieren, sondern man muss sich schon selber damit beschäftigen, leider mit seinem eigenen Expertenwissen über die Dinge, die im eigenen Unternehmen passieren.
Speaker 1:Ich glaube, das sickert langsam durch. Das ist mein Eindruck. Das war noch vom Jahr oder so, war wirklich ach nee, jetzt warten wir mal, bis wir was kaufen können, irgendwie Dass das aber innerend Das Domänenwissen erfordert, um KI gut einzusetzen. Das ist, glaube ich, eine wichtige Erkenntnis, und dass man dafür auch selber was tun muss, ist, glaube ich, in den meisten Fällen. ab und zu ist klar, wenn Sie wirklich ich sag mal irgendwie, wareneingang irgendwie und so weiter, das Produkt weiterzuentwickeln und so weiter. Das muss man schon zum Teil, da kann man nicht einfach so was einkaufen, sondern das muss man schon selber machen.
Speaker 1:Das Potenzial ist aber da. Der andere große Bereich betrifft den gesellschaftlichen Bereich. Ich glaube ja auch, dass diese ich glaube, das hat man jetzt auch schon rausgehört die Gefahren lauern nicht im Moment da, wo KI sich selbstständig macht und die Weltherrschaft übernimmt, sondern, die Gefahren liegen an anderer Stelle, die eben auch in dem Skalierungspotenzial von Schadsoftware liegen, zum Beispiel. Also Hackerattacken können viel zielgenauer und besser gemacht werden In dem Kontext logischerweise auch das Social Engineering wird viel, viel besser. Also, die Systeme können Phishing-Mails viel präziser und geschickter formulieren, sodass dann eben nicht nur eine Promille drauf reinfällt, sondern ein Prozent, und das ist schon ein Rieseneffekt. Das darf man nicht vergessen. Solche Systeme können natürlich auch verwendet werden, um sagen wir mal zum Beispiel auch Geschäftspartner zu ruinieren, irgendwie zu diskreditieren. Also richtig so, diese, wo man früher eigentlich so eine Goon Squad brauchte, die mit dem Baseballschläger irgendwie vorbeigeguckt haben und die Schaufensterscheiben eingeschlagen hat, das kann man jetzt alles digital machen. Also, ich glaube, diese Gefahren sind viel präsenter und viel rückender, auch insbesondere für kleinere und mittlere Unternehmen, als jetzt die Gefahr der verrückt gewordenen allgemeinen künstlichen Intelligenz.
Speaker 3:Kann ich da noch eine kurze Nachfrage, bevor wir sozusagen weil das interessiert mich brennt Gerade so, diese, sag ich mal Hacker-Attacken und so weiter. Ich nehme mal an, ki kann genauso eingesetzt werden zur Abwehr und kann sozusagen dazulernen, man sich gegenseitig sogar noch befeuert, also dass man so krass also die KIs so krass gegenseitig voneinander lernen, dass man irgendwann in Sphären kommt, wo man menschlich gar nicht mehr hinterherkommt. Also steht so die Gefahr.
Speaker 1:Also, das haben wir zum gewissen Grad. Es gibt ja zum Beispiel die viele der Bildgeneratoren. Die beruhen ja darauf, dass sie sozusagen eigentlich zwei Elemente haben, ein generierendes Element und ein bewertendes Element, und das bewertende Element versucht einfach zu raten, ob das ein KI-generiertes Bild ist oder nicht, und wenn es das nicht mehr gut kann, dann ist das Bild fertig. Ich meine, wir haben es schon in den KI-Systemen eingebaut, dieses Art Red Rays. Also kann ich es erkennen oder kann ich es nicht erkennen, und das zeigt auch ein bisschen das Dilemma. Wir können das machen, wir müssen das auch unbedingt machen, um sozusagen die Spitzen wegzunehmen, oder sagen wir mal, die Breite wegzunehmen, und dann bleiben nur noch die Spitzen übrig. Aber ganz perfekt wird es nie sein.
Speaker 1:Das ist so ein bisschen das Dilemma. Wir müssen tatsächlich auf organisatorischer Ebene meiner Meinung nach deutlich nachbessern um die üblichen Einfalltore, weil irgendwie müssen die Systeme ja reinkommen. Das ist wie bei einer Burg irgendwie Rein muss man schon. Irgendwie braucht man sowohl die Technik, aber man braucht auch viel Schulung, know-how, veränderung der Prozesse, absicherung der Prozesse. Aber so ganz wird man das nicht verhindern können, und dann bleibt immer ein kleines, meiner Meinung nach so ein Versicherungsgeschäft übrig. Irgendwie halt, es hilft nichts.
Speaker 2:Ich glaube, das trifft es total. Wir haben uns letztens auch mit der Frage nochmal beschäftigt warum ist das so ein viel größeres Thema, als bisher Digitalisierung sich angefühlt hat? Und ich meine, viele Sachen sind ja ähnlich. Das, was Sie zum Beispiel gesagt haben mit ja, wenn wir jetzt die Prozesse oder wenn wir jetzt gewinnbringend die KI auf Prozessebene einbringen möchten, dann muss da auch eine Prozesstransformation mit einhergehen. Das war ja bei der Digitalisierung vor den jetzt gängigen KI-Sachen auch ähnlich. Natürlich muss man sich erstmal den Prozess anschauen, bevor man da irgendwas automatisiert oder digitalisiert oder wie auch immer. Aber ich glaube, der Riesenunterschied ist eben, dass viele KI-Anwendungen eigentlich für uns nicht nachvollziehbar sind, sondern als Blackbox funktionieren. Also, wenn ich jetzt einfach nur eine digitale Klickstrecke habe, weiß ich immer noch, wo an welcher Stelle was geklickt wurde. Wenn ich aber einfach nur sage, ich gebe einen Input rein, und dann kommt irgendein Output raus, und ich weiß nicht, was dazwischen passiert ist, dann fühlt sich das ja schon mal ein bisschen anders an, und ich habe das Gefühl, es verändern sich dadurch so ein bisschen die organisationalen Wahrheiten auch einfach. Also einmal durch die Geschwindigkeit und die Potenz von KI. Wie zum Beispiel früher dachten wir ja, wer schon lange im Unternehmen ist, der weiß dann wahrscheinlich auch mehr. Das können wir jetzt nicht mehr unterschreiben. Also war davor auch schon nicht ganz 100 Prozent richtig, aber so eine Daumenregel Jetzt keine Ahnung. Also, wenn jemand mit der KI gut, schnell umgehen kann und lernen kann, super.
Speaker 2:Aber daraus ergibt sich natürlich dann wieder die Herausforderung woher kriegen wir überhaupt ein Domänenwissen, mit dem wir dann arbeiten können, wo man sagt, diese Person gilt als Experte, um das richtig einzusetzen oder zu bewerten, was da passiert? Und ich glaube, wo sich total viel ändern wird bei Unternehmen, ist ja auf der Prozessebene, aber auch dann auf der Governance-Ebene, auf der Entscheidungsebene, weil man muss ja jetzt fragen wer kann überhaupt bewerten, wo steckt Accountability drin, also wer kann Verantwortung tragen für diese Systeme? Und ich finde, in der Organisation ist das halt wahnsinnig schwierig, weil eigentlich ist eine Organisation ein Verbindlichkeitskomplex. Also man sagt irgendwie, diese Person macht X, dann passiert so und so weiter, und wir können uns aufeinander verlassen. Aber da ist für mich einfach noch ein großes Fragezeichen, wie sich das in der Organisation entwickeln wird, gerade mit dem Bezug auf Verantwortung, accountability.
Speaker 1:Also bin ich auch mal gespannt. Ja, es ist auf jeden Fall Veränderungspotenzial in die Richtung da. Mein Gefühl ist, am Ende, solange Menschen und wenn es am Ende nur die finanzielle Verantwortung ist, also Aktionäre oder Gesellschafter oder so, dann wollen die in einem anderen bestimmten Punkt schon auch wissen, was los ist irgendwo, und das wird sich runterdrisseln. Also meiner Meinung nach, das wird dann Druck auf die Prozesse geben, solche Erklärungen zu liefern, weil im Zweifelsfall kann ja Folgendes passieren Wir haben irgendwie eine KI, die steuert end-zu-enden Unternehmen und sagt immer jedem Mitarbeiter morgens kriegt er so einen Plan, was er so zu tun hat, und das macht er einfach völlig sinnfrei So ein bisschen also, hinterfragt das auch nicht und bekommt dann entsprechend sein Gehalt und fertig.
Speaker 1:In einigen Unternehmen ist das ja manchmal so, sogar jetzt schon, obwohl das nicht von der KI gesteuert wird. Aber jetzt machen alle auch die Manager und so weiter auf höherer Ebene, wobei man die wahrscheinlich dann zum Teil aus der Gleichung raus hat, irgendwie, weil die brauchen wir ja nicht mehr so richtig. Aber wenn dann was schief geht irgendeiner am Ende hat ja die Verantwortung, der ausführende Mitarbeitende ist es nicht, aber das Geld ist weg, und dann wird ganz schnell, werden dann Gelder abgezogen von solchen Dingern. Das ist dann wie so eine Lotterie, dann können die auch gleich irgendwie etwas machen, wo man mehr Glück als Verstand braucht.
Speaker 1:Also insofern, ich glaube, das wird dazu führen, dass die Verantwortung sich verlagern wird, vielleicht auf unterschiedliche Ebenen, aber dass es trotzdem ganz klar Erklärungstransparenzmöglichkeiten gibt, eben Dinge erklären. Ich glaube, sonst wird das am Ende nicht funktionieren. Ich meine klar, wenn nachher keine Menschen mehr da sind, die KI macht alles dann vielleicht. Das ist ja dann egal. Aber da wir ja schon noch davon ausgehen, dass wir eine Zeit lang irgendwie, sagen wir mal, im Mittelpunkt stehen das hoffe ich sehr, daran arbeiten wir auch sehr stark würden auch diese Erklärungen auf uns zugeschnitten sein müssen. Genau, also, ich glaube, es wird sich verlagern. Einige Werkzeuge werden dann eben trotz von, wenn sie hohes Potenzial haben, dann werden eben auch Erwartungswerte von Fehlern eine große Rolle spielen, und wenn die sehr hoch sind, dann wird das eben nicht zum Einsatz kommen, wenn die Werte niedriger sind, dann vielleicht schon. Also, das ist meine Erwartung, wie das funktionieren wird.
Speaker 2:Ja, ich glaube, was spannend wird, ist auch, wie werden Entscheidungen getroffen und vorbereitet, also wie viel Energie wird dann da reingesteckt? Aber da macht das total Sinn, was Sie sagen. Also, wie hoch ist die Fehlertoleranz? Wenn sie hoch ist, dann halt mit mehr Unterstützung und sonst vielleicht weniger.
Speaker 1:Wie sehen Sie denn, wie sich das gesetzlich entwickelt oder was es braucht, vielleicht auch auf einer Gesetzesebene, damit wir in Zukunft mit wie verändert sich die Sicherheitsrisiken aus welcher Ecke haben? neue KI-Entwicklungen bringen wieder neue Bedrohungsszenarien hervor, damit man da auch schnell reagieren kann. Das ist sozusagen auf der technischen Seite. Ich glaube, da sind wir eigentlich gut aufgestellt, im Moment auch international. Was da interessant ist, dass international, dass wirklich alle in einem Boot sitzen, während es natürlich schon auch eine Konkurrenz zwischen China, usa, europa gibt, rund um KI-Technologien und Ökosysteme. Und so, bei Sicherheit sitzen alle in einem Boot, logischerweise. Auch die Chinesen haben ein Rieseninteresse dran, teilweise sogar noch mehr als vielleicht wir, dass Sicherheitslücken möglichst klein bleiben. Also insofern, da sitzen wir in einem Boot. Und dann gibt es aber tatsächlich viele Dinge, würde ich sagen, die betreffen das Miteinander und den Einfluss auf Gesellschaften durch KI, also auf Persönlichkeitsrechte.
Speaker 1:Klar, wir haben den Datenschutz. Da waren wir, glaube ich, lange in der falschen Richtung unterwegs in Deutschland und auch in Europa, weil Daten sind nun mal super notwendig, und viele in der Bevölkerung sind auch bereit, daten herauszugeben, solange irgendwie klar ist, zu welchem Zweck. Ein klassisches Beispiel ist die elektronische Patientenakte. Dass wir die nicht schon seit zehn Jahren haben, ist ein Skandal eigentlich, wenn man ehrlich ist. Die Vorteile dieser Datensammlung für einen persönlich und für die gesamte Volkswirtschaft ist völlig offensichtlich. Aber dafür brauchen wir natürlich Regeln, das ist ganz klar, gerade bei sensitiven Daten. Also, das brauchen wir auf jeden Fall. Da kommen wir zurück auf das, was wir vorher gesagt hatten. Die eben sehr stark eingreifen auch in persönliche Lebensentwicklungen, glaube ich. Also. Ich sage mal, ki-systeme, die tatsächlich im HR-Bereich massiv eingesetzt werden, die in Bewertungen von Leistungen eingesetzt werden.
Speaker 1:Skurrilerweise hatten wir das eigentlich früher auch schon immer, aber es war mehr so unterm Radar. Also jetzt hat ja neulich auch die Schufa ihre Regeln nochmal angepasst, irgendwie. Also die Schufa war ja im Prinzip sowas, wenn man keinen Kredit für irgendwas gekriegt hat, was einem wichtig war, dann hätte man das als direkten Eingriff in persönliche Lebensgestaltung bewerten können, auf einer relativ intransparenten Basis halt. Das ändert sich jetzt, gerade, weil die gemerkt haben, oh Mist, diese KI-Regeln, die betreffen uns ja irgendwie, und jetzt ist das alles deutlich transparenter immerhin. Ob das dann für die Leute besser ist, weiß ich nicht, aber immerhin weiß man jetzt, auf welchen Kriterien das beruht.
Speaker 1:Ist auch vereinfacht das System, und ich glaube, das ist unbedingt notwendig, das einfach, um Persönlichkeitsrechte und unsere eigene Entwicklung, persönliche individuelle Entwicklung auch zu schützen und unser Recht darauf, dass wir uns persönlich entwickeln können. Dazu haben einfach KI-Systeme, weil sie eben einen großen Skaleneffekt haben und häufig dann manchmal alle über einen Kamm scheren, einfach ein zu großes Einflusspotenzial. Und deswegen bin ich eigentlich schon ein Freund auch von KI-Regulierung, solange die mit Augenmaß passiert und wir jetzt zum Beispiel, wenn man sich den UAI-Act anschaut, jetzt auch tatsächlich die Möglichkeiten, die der UAI-Act eben auch bietet, im Rahmen von Entwicklung und Innovation möglichst flexibel nutzen. Und das ist sozusagen das Erste. Also, lieber ist gut, dass wir das Rahmenwerk haben, aber jetzt nicht überregulieren, bevor man nicht konkrete Vorstellungen hat, was man reguliert. Ich glaube, das ist ein bisschen die Message, und gleichzeitig müssen diese Regulierungsrahmenwerke auch mitatmen können. Die Technologie entwickelt sich so schnell, dass man da wahrscheinlich auch regelmäßig nachschärfen muss und überlegen muss, an welchen Stellen man reguliert.
Speaker 3:Wir sind ja auch sehr aktiv im öffentlichen Sektor und beraten Verwaltungen. Da wäre natürlich die super spannende Frage, weil dieses Thema wird ja hoch und runter diskutiert Stichwort Bürokratieabbau, automatisierung. Die neue Koalition möchte da vor allem den Sozialstaat komplett irgendwie digitalisieren. Wie blicken Sie auf diese Thematik? Weil wir haben ja gerade das Beispiel der Schufa, wo es ja existenzbedingte Entscheidungen gibt, die automatisiert getroffen wurden und vielleicht völlig an der Lebensrealität daneben waren und aber signifikante Auswirkungen haben. Im Bereich zum Beispiel von Sozialämtern wird das ja ähnlich sein. Da wird es Einzelfälle geben, die man bewertet. Bislang sind es SachbearbeiterInnen, die das letztlich machen. Wenn Sie so auf diesen ganzen Verwaltungssektor schauen, was sind wirklich sinnhafte Hebel mit KI, wo man sagen kann, da kann man wirklich was bewegen in Zukunft, und wo sollte man vielleicht lieber ein bisschen vorsichtiger unterwegs sein?
Speaker 1:Das ist eine gute Frage, und diese Frage ist deswegen so gut, weil im Gegensatz zu anderen Bereichen wird der Einsatz von KI in der Verwaltung ja auf jeden Fall kommen, und zwar wahrscheinlich schneller und ein bisschen verschlafen irgendwie und vor allen Dingen auch durch sehr strenge Vergaberegeln im Prinzip im Keim immer erstickt irgendwie, dass wir da was Vernünftiges imße, und deswegen wird es jetzt zügig kommen. Ich meine, es ist alternativlos so, und deswegen ist das eine interessante Frage, weil, wenn was schnell kommt, dann werden wahrscheinlich auch ein paar Fehler schneller passieren, logischerweise, und ich glaube, man wird halt, sagen wir mal, bei den Tätigkeiten so von unten anfangen und sich so langsam hochhangeln. Zu den kritischeren Also ich denke mal, ein klassisches Beispiel sind Bauanträge. Wenn Sie einen Bauantrag begutachten müssen heutzutage, dann weiß ich nicht, das sind bestimmt fünf, sechs, sieben verschiedene Datenbanken und Quellen, die Sie als Sachbearbeiterin anzapfen müssen, um dann das zusammenzubringen, katasteramt irgendwie alle möglichen Sachen, und das kann eine KI eigentlich super vorbereiten, halt, und das alles zusammenbringen und eine Entscheidungsvorlage liefern und so weiter. Aber auch da gilt wieder wenn Sie was bauen wollen, und das wird abgelehnt, das ist schon ein starker Eingriff in Ihr Persönlichkeitsrecht, und deswegen kann das nicht automatisch von der Maschine meiner Meinung nach passieren, sondern das kann wirklich nur vorbereiten.
Speaker 1:Der Sachbearbeiter muss darüber gucken, man muss die entsprechend auch schulen, dann dass sie sich das auch wirklich genau durchlesen, um das nachvollziehen zu können. Aber dieses ganze Zusammentragen, ja die Vorlage erstellen, das wird alles wegfallen, sodass dann die Accountability noch da ist. Eigentlich alles wie früher, nur dass der Prozess viel effizienter geworden ist. Und ich glaube, damit werden wir anfangen, und dann sind wir auch auf der sicheren Seite, wenn die Leute vernünftig damit umgehen Und das wirklich auch durchlesen und nicht alle Bescheide blind wegschicken, was man ja auch weiß aus der Forschung bei Techniksystemen immer der Fall ist, wenn man sich so eine Art Over-Reliance. Das Risiko ist natürlich da.
Speaker 3:Wäre es nicht fast auch sinnvoll, noch eine Ebene tiefer zu gehen, indem man sagt also, oder ist es überhaupt sinnvoll, mit KI dahingehend zu arbeiten? indem man mal sagt schau dir mal alle derzeitigen gängigen bürokratischen Regelungen an, und wir verfolgen diesen und jenen Zweck eigentlich, wir wollen das und das Risiko eigentlich vermeiden, überprüfe bitte mal die Regelungen, ob die überhaupt noch kohärent sind, ob sie sich widersprechen, weil das scheint ja auch mit eine große Herausforderung sein. Also Stichwort Prozesse stimmen die überhaupt noch?
Speaker 1:Regelwerke sind überhaupt noch aktuell, wäre es da auch sinnvoll, da mal eine KI drauf gucken, da sehr stark unterstützen kann. Aber auch da braucht es am Ende, weil wir ja immer noch ein Verständnis behalten wollen. Da kommen wir ganz zurück an, was wir am Anfang gesagt hatten über Blackbox-Unternehmen oder Prozesse im Unternehmen, weil wir ja schon ein Verständnis entwickeln wollen, warum eine Verbesserung gut ist, und ich glaube, das ist schon wichtig. So ticken wir halt, und am Ende die Verantwortlichkeiten erfordern das auch. Wenn ein Mensch sagt, ja, das ist in Ordnung, dann muss er verstanden haben, warum das in Ordnung ist, nicht einfach nur statistisch gesehen. Ja, ich weiß, dass in 80% der Fälle das funktioniert, wunderbar.
Speaker 1:Aber das ist dann eine reine Korrelation und keine Kausalität, sondern wir wollen Kausalitäten, wir wollen das Modell dahinter verstehen und wissen, wie das in unser Modell, wie die Sachen funktionieren, hineinpasst. Und das werden wir leisten müssen. Hier und da können wir uns sicherlich ein Experiment gönnen, wo wir einfach mal sagen, lass mal ausprobieren und so. Aber am Ende, wenn das wirklich funktionieren soll und auch belastbar funktionieren soll, sodass es nachher vor Gerichten auch Bestand hat, wenn die Leute klagen, kann man ja nicht sagen, das System hat das ausgespuckt, Ja sorry, ja, ich weiß, es gibt eine 15 Prozent Fehlerquote, aber es ist halt unwahrscheinlich, dass sich das geirrt hat. Ich meine, das kann es ja nicht sein.
Speaker 2:Möglicherweise haben Sie jetzt ein Bias, weil Sie natürlich mit Unternehmen arbeiten, die tolle Projekte machen. Aber vielleicht so zum Abschluss Was ist denn Ihre Einschätzung? Wo stehen wir in Deutschland gerade mit Blick auf KI?
Speaker 1:Ja, also ich glaube, deutschland, europa, das kann man ja so ein bisschen synonym irgendwie verwenden. Ich glaube, wir haben in Europa noch im letzten Jahr eigentlich so ein bisschen, wenn man sich mit Unternehmen unterhalten hat und auch in der Politik und so, schon so die Vorstellung, dass vielleicht der Zug schon abgefahren wäre für Europa im Sinne von, tatsächlich großes Geschäft zu machen mit KI-Technologien. Seit Beginn des Jahres ist da ja wieder Bewegung reingekommen. Also, es gab dieses Deep-Seek-Modell, was zwar keine wissenschaftlichen Durchbrüche präsentiert hat, aber ganz, wirklich interessante Ingenieurleistungen erbracht hat und dazu geführt hat, dass man Modelle, dass man weiß, wie man Modelle wesentlich kostengünstiger mit weniger Ressourcen sowohl erstellen als auch betreiben kann.
Speaker 1:Und das hat dann dazu geführt, dass Emmanuel Macron im Februar diesen Jahres auf dem AI Action Summit Frankreich wirklich eine ganz KI-First-Strategie verpasst hat und auch jede Menge Geld zusammengesammelt hat, um die Infrastruktur zu verbessern, was dann dazu geführt hat, dass die Europäische Union, ursula von der Leyen, sich hingestellt hat und gesagt hat, das machen wir jetzt europaweit, und da sind wir jetzt in diesem Prozess. Also wir sind gerade dabei, europaweit unsere KI-Infrastruktur massiv auszubauen, und ich glaube, das ist auch unbedingt notwendig. Das müssen wir machen no-transcript zurückgucken, und dann kann man sich ja mal überlegen, welche Webbrowser damals, welche Browsertechnologien es so gab und wie viele davon heutzutage noch übrig ist? Nämlich gar keine. Die sind alle verkauft, aufgekauft, aufgegangen und so weiter, und so ähnlich wird das bei den KI-Modellen genauso sein.
Speaker 1:Wir werden ganz andere Modelle haben, in zehn Jahren ganz andere Technologien. Wir befinden uns da am Anfang, und deswegen ist der Zug überhaupt noch nicht abgefahren. Der ist gerade, läuft so, gerade so los, aber man kann noch locker aufspringen meiner Meinung nach Und ich habe das schon letztes Jahr gesagt und vorletztes Jahr dass wir da nachbessern müssen. Ich habe jetzt aber das Gefühl, das kommt ja, und das ist auch gut. Aber wir werden natürlich in Europa einen viel stärkeren Fokus haben auf B2B-Anwendung und weniger auf B2C. Das ist eben, war schon immer. Sagen wir mal, kulturräume, die es etwas lockerer mit den persönlichen Daten gesehen haben, haben da immer einen Vorteil.
Speaker 1:Also sprich USA in dem Fall und China erst recht. Was China an Daten aus dem öffentlichen Raum für große Modelle zur Verfügung stellt, ist atemberaubend. Aber das könnte man sich hier nicht vorstellen. Dass sie sozusagen aus allen Büroräumen, universitäten und aus dem öffentlichen Raum Videomaterial zum Lernen von KI-Modellen benutzen. Das ist einfach mit dem, und solche Modelle wollen wir dann am Ende, glaube ich, auch nicht verwenden. Davon bin ich eigentlich auch überzeugt. So, und da bewegen wir uns jetzt gerade B2B, ich glaube, der Mittelstand. Wenn der es schafft, ki-modelle zu integrieren in die Produkte, dann ist mir eigentlich nicht Angst und Bange vor der Zukunft.
Speaker 2:Sehr gut, das sind doch eigentlich ganz gute Aussichten. Vielen, vielen lieben Dank durch diese ich würde mal sagen Momentaufnahme KI. Vielen lieben Dank und kommen Sie bald wieder.
Speaker 1:Sehr gerne, Also spätestens. es ist ja auch das Verhältnis.
Speaker 2:Spätestens in zehn Jahren, wenn wir zurück auf den Podcast kommen. In zehn.
Speaker 1:Jahren, aber vielleicht auch früher, da gibt es wahrscheinlich schon auch. Neues zu berichten, dann und zu diskutieren.
Speaker 2:Sehr gut, Dann, wir nehmen an einem Freitag auf ein schönes Wochenende.
Speaker 3:Gleichfalls danke, tschüss, bis zum nächsten.
Speaker 1:Mal Musik.