LERNLUST #30 // Die KI und wir...
Shownotes
Das LERNLUST Team und auch unsere Kolleg:innen hat um den Jahreswechsel das gleiche Thema umgetrieben. Ziemlich sicher haben auch Sie/habt Ihr schon davon gehört: ChatGPT und KI allgemein. Um dieses Thema rankte sich recht viel Aufregung und, ach, sie tut es noch. Grund genug, dass Axel Lindhorst, Johannes Starke und ich, Susanne Dube miteinander reden. Doch so einfach ist das nicht, wenn 3 Menschen so ihre ganz eigenen Erfahrungen mit KI gemacht haben. Wir sind noch am Anfang unserer Diskussion aus Sicht des Corporate Learning. Doch für uns ist diese LERNLUST-Podcastfolge ein neuer Anstoß, gemeinsam auf ein sicher auch für uns alle künftig wichtiges Thema zu schauen.
Die Sprecher:
https://www.linkedin.com/in/axel-lindhorst/
https://www.linkedin.com/in/johannes-starke/
https://www.linkedin.com/in/susanne-dube/
KI Tools - Genannte Beispiele:
- Chat GPT: https://chat.openai.com/chat
- Dall-E Link: https://openai.com/dall-e-2/
- Die semantische Suchmaschine WolframAlpha: https://www.wolframalpha.com/
- OpenAI Whisper: https://openai.com/blog/whisper/
- OpenAI Whisper Install Guide: https://hub.tcno.co/ai/whisper/install/
- DeepL Write Textkorrektur Tool: https://www.deepl.com/write
Artikel, Blogs und Meinungen - Ein Auszug:
Erläuterung zu ChatGPT aus Computerwoche 20.1.2023: https://www.cio.de/a/was-ist-chatgpt,3613619
Gartner Hype Cycle Erklärung auf Wikipedia https://de.wikipedia.org/wiki/Hype-Zyklus
Informationssammlungen zu KI: https://wakelet.com/wake/ZFnix7cbFV8jLDMbONpE2 https://drphilippahardman.substack.com/p/the-generative-ai-landscape-for-learning
Ethan Mollick, Professor an der Wharton University, über den verpflichtenden Einsatz von AI-Tools in seinen Lehrveranstaltungen: "All my classes suddenly became AI classes" https://oneusefulthing.substack.com/p/all-my-classes-suddenly-became-ai
ChatGPT besteht einen MBA-Abschlusstest an der Wharton University. Das zeugt aber nicht von den besonderen Fähigkeiten der Tools, schreibt Max Muth in der Süddeutschen Zeitung: https://www.sueddeutsche.de/wirtschaft/ki-chatgpt-mba-universitaet-1.5737654
Stephen Wolfram, Erfinder der Suchmaschine Wolfram Alpha, über das Potenzial einer Verknüpfung von Wolfram Alpha und ChatGPT: "Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT" https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/
Eduard Kaeser, Neue Zürcher Zeitung, 26.12.2022: Chat GPT: Der Roboter schreibt nicht, er schwafelt https://www.nzz.ch/technologie/chat-gpt-der-roboter-schreibt-nicht-er-schwafelt-ld.1717513
Wikipedia über Mäeutik: https://de.wikipedia.org/wiki/M%C3%A4eutik
Dave Cormier: ChatGPT search – Autotune for knowledge https://davecormier.com/edblog/2023/01/20/chatgpt-search-autotune-for-knowledge/
Kognitionsforscher und KI-Experte Gary Marcus im Podcast-Gespräch mit Ezra Klein über ChatGPT als Meister des Pastiche und Bullshit-Generator, die daraus entstehenden Gefahren und vielversprechende Alternativansätze. Sehr hörenswert! https://www.nytimes.com/2023/01/06/opinion/ezra-klein-podcast-gary-marcus.html
Fake AI Buch von Frederike Kaltheuner: https://fakeaibook.com/
TIME Magazine Artikel über die Arbeit von Mitarbeitendern der Firma Sama in Kenia, die die Trainingsdaten von OpenAI-Tools nach Gewalt, Hass und sexuellem Missbrauch durchsuchen: https://time.com/6247678/openai-chatgpt-kenya-workers/
Sascha Pallenberg teilt im MeTacheles-Podcast seine Erfahrungen mit ChatGPT und prognostiziert, dass automatisierte Inhalteerstellung 2023 das Internet verstopfen wird: https://www.metacheles.de/p/ist-die-chatgpt-ai-der-ultimative#details
Wikipedia über "On Bullshit" von Harry Frankfurt: https://de.wikipedia.org/wiki/On_Bullshit
Filme
- "Her" von Spike Jonze: https://de.wikipedia.org/wiki/Her_(2013)
- Surrogates mit Bruce Willis: https://de.wikipedia.org/wiki/Surrogates_%E2%80%93_Mein_zweites_Ich
Transkript anzeigen
00:00:00: Susanne Dube & Claudia Schütze: LERNLUST. Der Podcast für alles rund ums Thema Corporate Learning. Wir sind Susanne Dube: und Claudia Schütze. Und wir sind Learning Consultants bei der tts. Schön, dass du heute dabei bist.
[00: 00:20] Susanne Dube: Wenn ich jetzt mittlerweile tatsächlich an dem Status bin, wo ich sage: „Ich habe es so viele Nachrichten gelesen. Ich hab so viele Posts gelesen. Ich habe so viele Artikel gelesen. Ich möchte jetzt drüber reden und deswegen habe ich euch beide eingeladen.“
[00: Johannes Starke: Der Begriff Blumenwiese klingt, klingt so optimistisch und so schön, aber ich sehe tatsächlich eher… Ich nehme jetzt nicht die das Zitat „Dornige Chancen“ in den Mund nein, das tue ich nicht.
[00: 00:48] Axel Lindhorst: Es wird aber nichts nützen, weil die Technologie da ist. Und was da ist, das setzt sich halt einfach durch in irgendeiner Form.
[00: 00:57] Susanne Dube: Manchmal habe ich beim Podcasten das Gefühl, ein Thema nicht zu Ende diskutiert zu haben. Normalerweise macht das auch nichts. Dieses Mal ist mir das aber bewusster denn je. Zum Thema „Künstliche Intelligenz“ ist dank ChatGPT eine Diskussion im Gang und stets gibt es neue Aspekte dazu. Scheinbar hat sich eine ganze Welt von Möglichkeiten aufgetan und damit auch eine Verantwortung für uns alle. Ein Podcast allein ist dabei nur ein Ausschnitt der Gedanken, die wir als LERNLUST Team dazu gerade haben. Darum seht diesen Podcast als Momentaufnahme im Denken zu KI zwischen Johannes Starke Axel Lindhorst und mir, Susanne.
[00: 01:41] Susanne Dube: Herzlich Willkommen Johannes, herzlich willkommen Axel zu unserem heutigen Podcast. Ich habe tatsächlich noch keinen Titel für diesen Podcast, ich werde ihn wahrscheinlich finden nach unserem Gespräch und warum, das wird den Zuhörern sicherlich gleich klar werden. Ich nenne ihn jetzt erstmal „Die KI und wir…“
[00: Johannes Starke: Forscher Titel, aber ich freu mich trotzdem bei euch zu sein.
[00: Axel Lindhorst: Hallo Susanne, Hallo Johannes Hallo liebe Zuhörer:innen.
[00: Susanne Dube: Ja, warum so ein sperriger Titel oder so ein forscher Titel? Wir haben ja schon vor einer ganzen Weile überlegt, dass wir meinen Podcast über künstliche Intelligenz machen wollten und Axel, so richtig bin ich eigentlich zuerst auf dich zugekommen, das war damals ach, es fühlt sich schon an, als wäre das eine Ewigkeit her im Dezember, als Claudia und ich unser Redaktionsmeeting hatten.
[00: Susanne Dube: Da bin ich auf dich zugekommen und habe gesagt Mensch Axel, ich würde gerne mehr über künstliche Intelligenz reden. Erinnerst du dich?
[00: Axel Lindhorst: Ja, eine kleine Ewigkeit, wenn es darum geht, wie sich künstliche Intelligenz entwickelt momentan. Damals habe ich gedacht okay, ja, irgendwie ganz interessant. Da gibt es so dies und jenes, was man im Netz schon mal gelesen und gesehen hat und jetzt ist es seitdem eben eskaliert und explodiert und ein Riesen-Thema. Für uns alle.
[00: Susanne Dube: Genau. Und am Spannendesten daran finde ich, dass unsere Zeitleiste damals so war, also damals im Dezember. „Ach ja, wir machen das vielleicht nächstes Jahr im Oktober, dann wird es so sein, dass wir aus Corporate-Learning-Sicht mal darüber sprechen können.
[00: Susanne Dube: Dann war es ja so, dass auch im Dezember Johannes, du dann plötzlich zu mir kamst und was gesagt hast?
[00: Johannes Starke: Wahrscheinlich ganz ähnlich, da ist jetzt dieses neue Tool ChatGPT und alle Welt redet davon und in den sozialen Netzwerken werden nur noch ChatGPT Dialoge gepostet und lass uns mal in einem Podcast darüber sprechen, welche Auswirkungen das haben könnte. Ich glaube, damals war ich noch sehr euphorisch. Meine Sicht darauf hat sich innerhalb weniger Tage und Wochen doch verändert.
[00: Susanne Dube: Ganz genau. Also ich erinnere mich noch sehr genau, Johannes, wie du gekommen bist und gesagt hast, „Wir müssen unbedingt über dieses Thema sprechen, da tut sich was“ und „Was, du willst im Oktober dazu sprechen? Nein, wir müssen das viel, viel früher machen!“ und das war der Grund, warum wir im Januar sprechen wollten und ich glaube, das war keine Sekunde zu früh.
[00: Johannes Starke: Es gibt ja wahrscheinlich auch nicht den perfekten Zeitpunkt, weil ich merke, jeden Tag gibt es neue Entwicklungen und das ist jetzt wirklich eine absolute Momentaufnahme, die wir heute versuchen.
[00: Susanne Dube: Genau und was ist sonst denn in der Zwischenzeit passiert? Ich erinnere mich, wir haben ja schon einen Versuch gemacht über KI zu sprechen und irgendwie hatte ich das Gefühl, wir sind überhaupt nicht auf einen Nenner gekommen. Was meint ihr beide? Woran hat es gelegen?
[00: Axel Lindhorst: Ja, genau daran. An der extremen Breite von Äußerungen, von Tools auch, also von Möglichkeiten, die die neuen künstlichen Intelligenzen bieten und natürlich mit der Emergenz von Open AI mit ChatGPT und DALL-E. Also Anwendungen, die uns alle bewegen, also der Text-Generierung und der Bild-Generierung, die durch die Decke gegangen sind sozusagen und die einfach unheimlich viel für einen unheimlichen Aufruhr gesorgt haben.
[00: Johannes Starke: Da stimme ich zu. Also zum einen natürlich diese permanente Flut an neuen Entwicklungen, Tools, Ideen Standpunkten, die man so mitbekommt. Allerdings damit verbunden auch die schwere Greifbarkeit des Themas, es entwickelt sich in alle Richtungen, jeder hat dazu was zu sagen und ich habe das Gefühl, dass wir bei unseren ersten Versuchen tatsächlich auf drei verschiedenen Schienen gefahren sind und alleine schon den grundlegenden Begriff „künstliche Intelligenz“ ganz unterschiedlich verstanden haben und dann teilweise auch ein gewisses Verständnis füreinander fehlte. Ich bin gespannt, wie wir damit heute umgehen werden.
[00: Susanne Dube: Ja, da bin ich auch total gespannt drauf und ich hab eben auch genau diesen Eindruck gehabt, den du meintest. Uns fehlte so ein bisschen das Verständnis füreinander, weil jeder so seine Vorstellung davon hatte, was auch wichtig ist für uns gerade und wie auch unsere eigene Sicht auf das Thema ist und welche Möglichkeiten wir darin sehen oder eben auch welche Risiken und wie groß wir das auch fassen wollen. Ich bin jemand, der immer sehr generell da rumgeht. Bei euch beiden weiß ich es ehrlich gesagt gar nicht so genau und würde deswegen sagen, als Auftakt Punkt für den heutigen Podcast Würde ich einfach gerne von euch wissen: wie ist denn eure Position gerade zum Thema künstliche Intelligenz? Das heißt, welche Frage treibt euch vielleicht dort total um oder aus welchem Blickwinkel guckt ihr, also versucht das mal so ein bisschen zu beschreiben und vielleicht fängst du, Axel, damit an?
[00: Axel Lindhorst: Naja, suchend, explorierend würde ich sagen. Also vor allem erstmal auschecken, das was jetzt da ist, mit was wir alle versuchen so ein bisschen zu experimentieren oder viele von uns ist natürlich ChatGPT, also Text-Erzeugung, Bild- und Video-Erzeugung. Das hab ich auch alles schonmal probiert und ich gucke einfach jetzt mal was ist dran? Also ist das der erste Moment, der so ein bisschen überwältigend ist? Zum Beispiel bei der Text-Generierung, „Woah krass dieses Tool, das redet ja mit mir wie ein Mensch und gibt mir total komplexe Antworten auf komplexe Fragen und ist in der Lage, das auszudifferenzieren, auch einen Dialog zu führen“. Dieser erste Moment, dieser erste Eindruck, der entsteht was ist da dran? Also wie gut und wie überzeugend ist es eigentlich wirklich, wenn man sich das mal genauer anschaut oder in wie weit sind andere Methoden der Recherche, menschliche Methoden, andere technische Methoden, auch vielleicht gleichwertig oder können andere können anderen Zwecken dienen.
[00: Susanne Dube: Okay, dann würde ich da vielleicht sagen vielleicht, Johannes, kannst du deinen Standpunkt auch nochmal sagen. Vielleicht kannst du da auch schon ein bisschen Bezug drauf nehmen oder einfach nur deine Sicht auf die Dinge noch mal wiedergeben.
[00: Johannes Starke: Also ich schließe mich Axel natürlich an, also dieser Modus der permanenten Suche, des permanenten Ausprobierens der Exploration, den hab ich im Dezember, Anfang Januar eingeschlagen. Mittlerweile habe ich da schon fast die Lust daran verloren, muss ich gestehen, auch wenn ich sie nicht verlieren möchte. Ich hab das Gefühl, dass ich so diesen Gartner-Hype-Cycle schon zur Hälfte durchlaufen habe, also die sind diesen Peak der überzogenen Erwartungen. Dann, das war so Ende Dezember, wo ich aufgeregt war und dachte „Meine Güte, was da jetzt alles passiert“, dann aber wirklich auch die Skepsis, Irritation, tatsächlich auch Ärger von vielen Posts über das Thema, die ich im Internet gesehen habe, bin ich mittlerweile in so einem Frustrations-Level fast schon angelangt. Ich hoffe, ich kann das heute ein bisschen abschalten in diesem Podcast, wo ich aufpassen muss, nicht in die absolute Anti-Haltung zu rutschen und alles abzulehnen, was mit diesem Thema verbunden ist, was sicherlich nicht produktiv wäre, wenn ich mich in diese Richtung entwickeln würde. Gleichzeitig habe ich aber auch das Gefühl gehabt, dass ich vor den aktuellen Entwicklungen, die dann ja so im Dezember eigentlich begonnen haben, das Thema in Anführungszeichen „künstliche Intelligenz“ mit einem vielleicht auch sogar schon demonstrativen Desinteresse nicht verfolgt habe, weil ich es so als Begriff für alles Mögliche, alles, was an Erwartungen an Computer gestellt wird, die noch nicht erfüllt werden können, das wird künstliche Intelligenz in Zukunft alles lösen. Das war so ein bisschen das Gefühl, so ein absoluter Schwabbel-Begriff, der nicht konkret wird. Und ich hab das Gefühl, dass jetzt natürlich durch diese Auseinandersetzung mit dem Thema ein neues Tor für mich aufgestoßen wurde, zu einem Feld, wo ich sehr viel lernen muss, weil ich glaube schon, dass es sinnvoll ist, sich mit dem Thema in Anführungszeichen „künstliche Intelligenz“ zu beschäftigen und dass ich das Gefühl habe, ich steh vor unglaublich vielen Dingen, die ich erstmal verstehen muss und erst mal lernen muss und ich weiß eigentlich fast noch nichts.
[00: Susanne Dube: Und damit hast du eigentlich genau das beschrieben, wie es mir gerade geht. Ich hab so das Gefühl, ich weiß, dass ich nichts weiß, also das ist das, was ich in den in den letzten Wochen für mich gesehen habe und ich glaube fast ein bisschen, ich steck so zwischen euch beiden, also ich bin wie Axel gerade suchend und hab in den letzten Wochen tatsächlich alles aufgesaugt, was ich gekriegt habe oder bekommen konnte, jegliche Artikel… Hab mich selber in die Tools reingegraben, auch ausprobiert, was dort so geht, hab da auch meine Frustrationsmomente erlebt. Johannes, also da bin ich auch dann tatsächlich so ein bisschen bei dir, dass ich überlegt habe, ich weiß auch nicht, so richtig funktioniert das nicht und jetzt habe ich den fünften Artikel gelesen, wo jemand ChatGPT ein Interview abwürgt, was ich selber auch machen.
[00: Susanne Dube: Das heißt all diese Sachen kann ich richtig gut nachvollziehen. Was ich noch nicht kannte, war der Gartner-Hype-Cycle. Den muss ich mir mal angucken, den sollten wir vielleicht verlinken, damit ich mal schauen kann oder damit jeder von uns vielleicht mal gucken kann, wo wir uns dort gerade befinden, weil du hast das gerade wirklich schön beschrieben, Johannes. Ich glaube, ich bin noch nicht so weit wie du. Aber so einen kritischen Blick habe ich zum Teil schon, wobei ich aus meiner Sicht, und das ist vielleicht auch der Grund, warum ich eine bin, die sehr, sehr breit auf das Thema guckt. Ich will mich gar nicht verrennen in diesen Hype um ChatGPT und dieses eine System, was es da gibt, sondern ich will gucken was bedeutet das eigentlich grundsätzlich für uns, für‘s Corporate Learning und das eben aus zwei Sichten: einmal, welche Möglichkeiten bietet mir die Software oder bietet mir irgendeine Software, die eben KI kann oder mehrere, da tut sich ja gerade so ein bisschen eine Blumenwiese auf aus meiner Sicht und wie müssen wir Menschen lernen, damit umzugehen? Und ich glaube tatsächlich, dass es für uns als Lern- oder Lehr-Verantwortliche, wie auch immer wir das bezeichnen wollen, aber auch für die Lernenden einen Wandel mit sich bringt, der tatsächlich auch eine Kompetenz im Umgang mit der KI braucht, diewir vielleicht noch nicht kennen und das ist das, was ich gerade spannend finde.
[00: Johannes Starke: Ganz gewaltig, aber ich finde, der Begriff Blumenwiese klingt so optimistisch und so „das ist schön“, aber ich sehe tatsächlich eher einen Vergleich, ich nehme jetzt nicht die das Zitat „dornige Chancen“ in den Mund. Nein das tu ich nicht.
[00: Axel Lindhorst: Ein interessanter Aspekt finde ich in diesem Zusammenhang ist auch also bei der Wahrnehmung dieser Orientierungsphase ist die kulturelle bzw. popkulturelle Überformung des Themas. Wir sind eben nicht nur konfrontiert mit einer Reihe wissenschaftlicher publizistischer Artikel, die jetzt das Netz fluten, sondern wir haben schon bestimmte Warnungen zum Thema aus Büchern und aus Filmen und so Leute, die sich mit künstlicher Intelligenz befassen, die werden auch schnell schon so zu kleinen Stars zumindest in ihrem Umfeld und ich glaube, das spielt alles eine Rolle, und deswegen gibt man auch sehr schnell ja Hoffnungen, Ängste, Meinungen an, da kann man schnell sehr meinungsstark werden, weil man einfach das alles auch mitdenkt.
[00: Susanne Dube: Das ist ein ganz spannender Punkt, den du da ansprichst und vielleicht führt uns das auch zu der ersten von drei Fragen, die ich heute mit euch besprechen möchte, nämlich, wie gehen wir eigentlich mit dieser aktuellen Berichterstattung um? Also was passiert mit uns da gerade? Wenn ihr damit einverstanden seid, würde ich jetzt zu dem Punkt schon überführen.
[00: Johannes Starke: Also ich finde es auf jeden Fall spannend Axel, dass du eben gesagt hast, wie das Thema popkulturell schon vorgeformt ist. Das war nämlich auch genau mein Eindruck, dass ich vor den aktuellen Entwicklungen eben aus diesem Desinteresse an dem Thema eigentlich heraus Filme wie „Her“ oder „Blade Runner“ oder so als nette Geschichten gesehen habe und diese ganzen Gedanken, die mir jetzt in den Sinn kommen, wenn ich die Filme nochmal sehe, überhaupt noch nicht hatte und ich habe gerade vor wenigen Tagen „Her“ nochmal gesehen und das hat mich echt umgehauen. Wie anders ich den Film jetzt betrachte als damals.
[00: Susanne Dube: Und das ist das, warum ich vielleicht auch gerade jetzt so ein bisschen auf das Thema Berichterstattung schon gehen wollte, weil das eine ist tatsächlich diese Vorformung, die wir dort haben, über Filme, Bücher, Nachrichten, die wir schon früher gehört haben, Ideen, die generiert worden sind und gleichzeitig stehe ich jetzt vor dieser Herausforderung, dass ich ganz, ganz viel lese und nicht alles betrifft nur den Bereich Corporate Learning und mein Berufsfeld, sondern da reden Leute darüber, dass quasi das gesamte Suchverhalten von mir sich ändern wird, dass Schule sich verändert, was mich privat betrifft für mein Kind, das KI in meinen Haushaltsgeräten drin ist. Das ist das, wo ich weiß, Johannes, darüber willst du gar nicht reden, gehört auch überhaupt nicht hierher, aber ist natürlich in der Ganzheitlichkeit bei mir drin und damit hat es für mich auch als Menschen Auswirkungen und vielleicht ist das ein Grund, warum es mir auch immer so schwergefallen ist, diesen Fokus wieder hinzukriegen, und ich bin ganz glücklich über die letzten Gespräche, die wir dazu hatten. Wie gesagt, Wir hatten ja auch schon mal ein Podcast-Versuch gemacht, weil mir das jetzt geholfen hat, zu gucken: Ich muss zielgerichteter schauen, was ich mit den ganzen Informationen, die da draußen sind, anfangen möchte und was ist davon vielleicht gebiased durch irgendwelche Geschichten, die ich vorher kenne, die ich gesehen habe? Was ist vielleicht aber tatsächlich eine Chance, die ich nutzen kann, oder was ist etwas, womit ich mich ganz realistisch auseinandersetzen muss in meiner Arbeit als Berater im Corporate Learning Umfeld?
[00: Axel Lindhorst: Also die Auswirkungen sind ja schon sehr konkret. In Schule und Universität zum Beispiel, wenn man in Betracht zieht, dass der Staat New York ChatGPT schon verboten hat an den Schulen.
[00: Susanne Dube: Finde ich aber genau den falschen Ansatz.
[00: Axel Lindhorst: Es wird auch nichts nützen, weil die Technologie da ist. Und was da ist, setzt sich jetzt halt einfach durch in irgendeiner Form.
[00: Johannes Starke: Und da habe ich gerade heute früh, Axel, zu dem Thema, wie amerikanische Universitäten mit diesem Thema umgehen, die aktuelle Nachricht gelesen, dass ChatGPT die Prüfungsaufgaben an der Warten-Elite-Uni hierzu zum MBA bestanden hat, aber tatsächlich und das fand ich dann ganz interessant, das war Artikel von der Süddeutschen: auch die Einordnung, dass diese Aufgaben dieser Mathematik-Prüfung des MBAs an „Warten“, dass die wohl auf einem Niveau seien, also so behauptet es der Artikel, dass das einigermaßen clevere Schüler:innen des Gymnasiums auch lösen könnten; das also da der Punkt nicht ist, der fachliche Anspruch der Aufgaben, die es zu lösen gilt, sondern eigentlich so das Eintrittsticket an die Elite-Uni. Wenn ich es einmal, wenn ich da einmal aufgenommen bin, habe ich es geschafft. Und just besagter der Professor. Hat ChatGPT auch schon aktiv in seiner Lehre eingesetzt und fordert seine Studierenden auf, mit AI Tools zu arbeiten. Also, das war jetzt eine Demonstration, was universitäre Lehre eigentlich anders ist, als einfach nur das Beantworten von von fachlichen Fragen, was da alles noch mit reinspielt, eben auch systemisch mit reinspielt an diesen Elite-Unis.
[00: Susanne Dube: Ganz genau ja und das ist also ich glaube alleine, dass wenn wir über Schulen oder Universitäten und welche Auswirkungen es dort hat, wenn wir darüber sprechen würden, könnten wir wahrscheinlich drei Podcasts füllen.
[00: Axel Lindhorst: Der wichtigste Aspekt ist ja, es geht eben nicht bei ChatGPT darum, Fachfragen zu beantworten, um Wissen zu finden, sondern es geht darum, dass sie natürlich in Menschen-ähnlicher Sprache erzeugt werden.
[00: Johannes Starke: Uii. Das war ein Ausdruck des Erstaunens, den eine KI wahrscheinlich auch so genutzt hätte, um menschliche Eigenschaften so zu simulieren. Ich denke jetzt gerade an diese Google-Tech-Demo, vielleicht könnt ihr euch daran erinnern, als Google demonstriert hat, dass ein Algorithmus einen Anruf in einem… war das ein Restaurant oder einen Frisiersalon? Ich weiß es nicht mehr… führt und dann also mit dem menschlichen Gegenüber gesprochen hat und immer „Mhm“, „Aha“ usw. simuliert hat. (Alle lachen). Jetzt lachen wir drüber, ich finde das eine von vielen ganz, ganz schrecklichen Entwicklungen, die natürlich auch reguliert gehören.
[00: Susanne Dube: Wie geht ihr denn mit all diesen Infos um? Also wir sind jetzt wieder abgedriftet, dann sofort in dieses Schulthema und haben darüber gesprochen, aber lasst uns mal gucken, wie gehen wir denn generell mit diesem Thema um? Aus unserer Sicht: wie geht ihr mit diesem Hype um, der gerade passiert?
[00: Johannes Starke: Du hast vorhin oder ich habe es auch erwähnt, die Flut an Nachrichten dazu gerade in den sozialen Netzwerken und ich wünsche mir mittlerweile wirklich einen Blocker für Content, der mit ChatGPT oder ähnlichen Systemen erstellt wurde, weil diese anfängliche naive Begeisterung und Demonstration „Guckt mal, ChatGPT kann jetzt mit mir sprechen und einen Dialog führen und kann meine Fragen beantworten und da kommt irgendwie einigermaßen sinnvolles Zeug bei raus“. Das ist auf einem Niveau verblieben, wo es einfach nicht weitergeht, das Thema hat einfach Beschränkungen. Dem Ding können wir aktuell nicht noch mehr Magie entlocken, als diese Beschränkungen… klar, man kann jetzt irgendwie lernen, clevere Prompts zu schreiben. Aber immer wenn ich sehe, ein Artikel, der von ChatGPT geschrieben wurde, dann schalte ich erstmal direkt ab. Das möchte ich nicht. Ich möchte, dass wir uns da aus einer menschlichen Perspektive mit beschäftigen. Was macht das mit uns, was macht das mit unserer Gesellschaft, was macht das mit unserer Arbeit, mit unserer Profession und wie können wir diese Technik wirklich zum Sinnvollen einsetzen? Da liegt mein Interesse da lese ich auch alles, was ich in die Hände bekomme, aber diese naive Begeisterung, die schreckt mich mittlerweile sehr ab und ich habe das Gefühl, dass da jetzt alles in einen Topf geworfen wird und einmal kräftig rumgerührt wird und dann nach wie vor das, was auch vor ChatGPT war, sämtliche Hoffnungen an, was Technik irgendwann mal können wird darauf projiziert wird.
[00: Axel Lindhorst: Also bei ChatGPT bin ich auch in einer ähnlichen Phase wie Johannes, also die Grenzen des… Ich bin doch nicht genervt, aber die Grenzen sind mir relativ schnell auch klar geworden. Aber ich finde es nach wie vor trotzdem interessant und ansonsten gehe ich damit eigentlich spielerisch um, also ich integriere das so in die Wahrnehmung von Informationen und Einflüssen, die ich so in den großen Mahlstrom täglich aufnehme… und dann bestimmte Dinge triggern mich und dann lese ich halt mehr nach und dann probier ich die halt aus ja, also in dem Stadium bin ich hauptsächlich noch bei ChatGPT.
[00: Susanne Dube: Ja, ich finde das sehr spannend, weil ich bei mir diese Abneigung gegen ChatGPT-generierte Texte gar nicht empfinde. Im Gegenteil, Ich packe einen tatsächlich in die Show Notes rein aus einem ganz bestimmten Grund. Ich glaube, dass die Entwickler von ChatGPT, nämlich Open AI, ihr Wissen darüber, was ChatGPT ist, sicherlich mit eingespeist haben in das Tun und es gibt einen interessanten Artikel, wo ChatGPT interviewt wurde. Dazu, was ChatGPT ist. Und das ist glaube ich das einzige, wo ich sage, da macht es auch mal Sinn, weil das dann ja einerseits die Möglichkeiten des Tools zeigt, also da kann man sich mal anschauen wie antwortet dieses Tool? Wie ist die sprachliche Qualität? Und ich kann natürlich dann diese relativ einfachen und eindeutigen Informationen dort rauslesen solche Sachen finde ich auch ganz ok und ich finde es auch manchmal ganz ok, wenn man oder wenn ich mich hinsetzen würde und dort einfach eine Frage stelle an ChatGPT und kriege so ein paar allgemeine Gedanken, dann ist das ein netter Einstieg und so nutze ich solche Art von Texten tatsächlich.Ich würde sie nicht als vollständiges Informationspotential sehen. Also ich hab auch schon Artikel gesehen, die mich furchtbar genervt haben, Johannes, und da bin ich komplett bei dir, wo jemand gesagt hat „Aber schaut mal, ich habe ChatGPT befragt zu meinen Erkenntnissen zu Thema XY und guckt mal, ChatGPT ist der gleichen Meinung wie ich“. Das hatte ich dir dann auch weitergeleitet, Johannes, und du hast gesagt, das was da drin steht, ist falsch.
[00: Susanne Dube: Von daher bin ich da tatsächlich vorsichtig geworden. In diesem einen Fall habe ich es tatsächlich hier oder werde es mal verlinken, weil ich es da gut finde, um ersten Einstieg zu kriegen oder um auch dort sich nochmal zu informieren, finde ich interessant, wie das auch geframed ist. Und ansonsten bin ich jetzt mittlerweile tatsächlich an dem Status, wo ich sage, ich hab so viele Nachrichten gelesen, ich hab so viele Post gelesen. Ich habe so viele Artikel gelesen. Ich möchte jetzt drüber reden und deswegen habe ich euch beide.
[00: Johannes Starke: Ich würde gerne die drei Punkte, die du genannt hast, aufgreifen. Wenn ich es richtig verstanden habe, hast du gesagt, einerseits hast du Interesse daran ChatGPT über sich selbst zu befragen, weil du glaubst, dass da im Hintergrund einiges an Informationen eingespeist worden ist, von den Entwickler:innen, die du abrufen kannst, habe ich das richtig verstanden?
[00: Susanne Dube: Ja, ich glaube, dass die Entwickler in diesem Riesen-Datenpool, den sie hatten, sicherlich auch die Daten dazugegeben haben, weil das eine Erwartung wäre, dass das die ersten Fragen sind, die an das Tool gestellt werden, also ich als Entwickler hätte das getan. Das sind dann die Marketing-Infos, die da mit drin stecken.
[00: Johannes Starke: Also da trau ich ChatGPT keinen Millimeter über den Weg. Ganz konkret auch, ich habe ChatGPT gefragt damals, wie mit meinen Daten umgegangen wird, also ob meine Daten erfasst werden, die ich eingebe und natürlich werden sie das. Ich meine, das ist der Grund, warum das eine offene Testphase ist, damit das System lernt.
[00: Axel Lindhorst: Steht ja auch schon im Disclaimer.
[00: Johannes Starke: Aber natürlich palavert ChatGPT, „Nein, es wird überhaupt nicht erfasst und ich kann noch gar nichts erfassen und bla bla bla“ also das … lügt mir einfach frech ins Gesicht. Ich nehme jetzt schon hier menschliche Begriffe, die lügen alle… (Susanne: Kann ja gar nicht lügen). Genau! es kann nicht lügen, also es fabriziert Bullshit. Also, in der Definition von Harry Frankfurt, das es einfach keinen Bezug zu wahr oder falsch hat, das es einfach irgendwie plausible und erwartbare Dinge von sich gibt. Deswegen halte ich ChatGPT nicht für eine vertrauenswürdige Quelle von Informationen, auch nicht über sich selbst, obwohl ich natürlich weiß, dass im Hintergrund viel moderiert wird. Und natürlich versucht wird von dem Entwicklerteam Fragen, die rassistische, diskriminierende Aussagen und so produzieren könnten, abzufangen. Das zweite war der Punkt, dass du mir besagten Artikel geschrieben hast und ich mich so darüber aufgeregt hatte, dass hier auch wieder nur ein Dialog mit ChatGPT wiedergegeben wird und die eklatanten sofort ersichtlichen Mängel nicht angesprochen wurden. Also es ist ja völlig legitim, in bestimmten Konstellationen algorithmisch generierten Output zu verwenden, wenn ich ihn einordnen, ihn diskutiere, wenn ich Ihnen ja kritisch befrage, aber das ist das Mindeste, was ich erwarte von den Ersteller:innen eines solchen Artikels. Und der dritte Punkt, den du gesagt hast, irgendwie zur Ideengenerierung, den kann ich sogar nachvollziehen, dass einfach wenn ich wenn ich Aussagen brauche, um sie mit meinen gegeneinander zu stellen und dann kann ich natürlich ChatGPT als Strom von stromlinienförmigen Informationen verwenden, an denen ich mich abarbeiten kann. Also einfach mal, um so eine Sammlung von Aussagen von Titeln, von Quiz Fragen zu generieren, klar soweit, das ist legitim, aber ich muss dann halt etwas tun. Als Mensch.
[00: Susanne Dube: Das stimmt und das ist vielleicht der Punkt, warum ich sage ich möchte jetzt mittlerweile darüber ja reden also ich möchte mich austauschen, es gibt auch Bar Camps, die da mittlerweile angeboten werden. Glaube ich, da soll in Kürze stattfinden und ja, es gibt die Möglichkeit, mit euch zu reden, da bin ich sehr dankbar für und ich bin auch dankbar für all die Listen und Zusammenstellungen an Tools, die es da mittlerweile gibt. Ich hab nur just im Moment noch nicht die Zeit gehabt, alle durchzuarbeiten, aber damit würde ich vielleicht, wenn ihr damit einverstanden seid mit der Berichterstattung so ein bisschen und wie wir damit umgehen n bisschen weitergehen zu der zweiten Frage, die ich mir aufgeschrieben habe: nämlich wenn wir uns jetzt angucken, das Thema KI hat mit Ende letzten Jahres einen absoluten Hype erlebt und wir würden uns jetzt dieses Jahr angucken und den aktuellen Moment, den wir haben: Welche Bedeutung hat denn künstliche Intelligenz im Bereich Corporate Learning, also unserem Arbeitsumfeld, jetzt gerade in diesem Moment und vielleicht noch im nächsten halben Jahr? SSagen wir es mal so oder ist das schon zu lang? Nee halbes Jahr ist ok.
[00: Axel Lindhorst: Ich fang mal an aus meiner Sicht als Content-Ersteller, Content-Creator. Die erste Antwort ist noch so ein bisschen Rückgriff auf das, was wir hier vorhin hatten, das Dialogprinzip, ich kann eben mit ChatGPT und vergleichbaren Tools, also die, die auf einem Language Model basieren. Ich kann in den Dialog treten, das heißt, ich kann sokratisches georgisches Prinzip an den Start bringen und kann mich austauschen und kann versuchen, darüber Anstöße zu bekommen, Reflexionen zu starten, Trigger zu setzen, die sonst vielleicht nicht zustande kommen würden. Ja, oder klar natürlich in meiner Peer Group würden sie zustande kommen, aber mit anderen Suchmethoden. Zum Beispiel mit Suchmaschinen würden solche Sachen möglicherweise nicht entstehen. Das ist vielleicht auch eine Hoffnung oder eine vage Idee, wo ich glaube, das ist etwas, was mir in der Praxis was bringen könnte. Und der zweite Aspekt ist halt die Umformung von Texten und die gruppengerechte Aufbereitung von Texten oder die zweckgerichtete Aufbereitung von Texten, wo ich sagen kann, ok, ich möchte etwas exzerpieren, ich möchte etwas aufbereiten oder in Listenform haben. Ich möchte den Text länger haben oder kürze haben. Ich möchte den Text in einer anderen Sprache haben, zum Beispiel für eine bestimmte Altersgruppe. Oder für eine bestimmte Zielgruppe auch Professionals oder eher Amateure, also auf diese Art Texte oder wissen, was vielleicht auch schon vorliegt, zu prozessieren. Das klingt für mich interessant, jetzt im Bereich Text-Generierung oder Text-Verarbeitung.
[00: Susanne Dube: Und wenn ich das jetzt höre, also einmal dieses Dialog System, also jemand spricht mit mir, da kommen mir gleich 1000 Ideen, wie das jetzt eingesetzt werden könnte, tatsächlich im Corporate Learning Bereich also da stelle ich mir die Frage, welchen Einfluss wird das haben auf Performance Support Systeme. Nur kurzfristig hätte ich das vielleicht noch nicht. Kurzfristig ist eher vielleicht etwas was eine Konkurrenz für Google ist und für solche Nachschlage-Systeme, wenn es um das geht. Es ist aber auch spannend, wenn es um den Bereich des adaptiven Lernens dann vielleicht geht und mir ein Dialog-System vielleicht Hinweise gibt dazu, wie ich weitergehen kann, aber ob das jetzt kurzfristig im nächsten halben Jahr kommt, weiß ich nicht. Ich glaub viel spannender ist da vielleicht der zweite Punkt, den du genannt hast nämlich mit dem Bearbeiten von Texten oder dem Umarbeiten von Texten, die ich habe, wo ich das selber vielleicht als Autor verwenden kann, oder was mir jetzt auch begegnet, ist schon in irgendwelchen Video-Tools, wo ich auch Texte eintragen kann noch erweitern kann und dann eben kombinieren kann mit noch einer Bild-generierenden KI, die mir dann vielleicht noch einen Sprecher dazu macht. Aber das sind so meine Gedanken dazu Johannes, du hast bestimmt auch welche?
[00: Johannes Starke: Ja, genau, ich würde ganz gerne erstmal das aufgreifen, was ihr jetzt schon erwähnt habt. Also ich kenn mich jetzt in der Mäeutik nicht so stark aus wie du, Axel, aber ich vermute, damit ist nicht das gemeint, was ChatGPT mit uns macht, einfach uns nach dem Mund reden und eine Antwort so zu formulieren, wie es erwartet, dass sie am Glaubwürdigsten und am Passendsten zu unserer eigenen durch die Frage übermittelten Erhaltung passt.
[00: Axel Lindhorst: Möglicherweise gibt es zu wenig Widerspruch von ChatGPT, um zu einer sokratischen Form der Dialoge zu kommen.
[00: Johannes Starke: Ganz genau, dass war nämlich auch wirklich eine Sache, die mich tatsächlich sehr stört und wo ich die Sorge habe, dass das einfach ganz automatisch verflacht, weil das ja so einfach scheint, einen pseudo Dialog, mit dem System zu führen, weil das was lernen ausmacht, was auch wirklich gutes und wertvolles Lernen im Unternehmen ausmacht, das ist ja der Diskurs, das auch ästhetische, ethische Widersprüche aufzunehmen, zu reflektieren. Das Wissen um mein Gegenüber mit in den Dialog einfließen zu lassen, also auch dieses intersubjektive Verständnis, was wir ja ganz automatisch mitbringen, wenn wir mit Menschen sprechen. All das fehlt ja im Dialog mit der Maschine.
[00: Susanne Dube: Also ich grätsche da jetzt mal ganz kurz rein, Johannes, weil ich mich Frage: Ist das nicht vielleicht einfach nur ein Merkmal von ChatGPT und könnte das mit einem anderen, ich sag mal, sprachmodulierenden System, also solche KI... Es gibt ja auch andere Anbieter, die getestet haben. Google hatte damals Lambda und Ähnliches, die vielleicht anders kommuniziert haben. ChatGPT ist ja mit Absicht, und das hast du ja selbst gesagt, hat ja eben diese Prüfmechanismen, damit eben keine rassistischen Aussagen kommen, damit niemand verletzt wird. Ich hab Sachen gelesen, wo jemand ChatGPT zu Aussagen für, ich sag mal zu expliziten Liebesromanen treiben wollte und es nicht geschafft hat und da einfach ne Bremse drauf liegt, die diesem System zu eigen ist, aber nicht der Technik an sich.
[00: Johannes Starke: Ich erhoffe mir ja keine rassistischen, sexistischen Aussagen von ChatGPT, also bitte nicht falsch verstehen, aber ich..
[00: Susanne Dube: Nee, aber aber damit holst du ja quasi dieses Ganze, was Emotion ist, was diese Reibung ausmacht, die du beschrieben hast, wenn wir miteinander reden, wir reiben uns.
[00: Johannes Starke: Ja, weil dich ich kenne dich ja auch als Person und ich erwarte ja auch schon, wenn ich mit dir zu bestimmten Themen spreche, dass ein im besten Sinne produktiver Dialog daraus entsteht und diese Erwartungen habe ich an ChatGPT nicht. Ich weiß, dass ChatGPT mir nach dem Mund faselt und möglichst so mich überflutet mit eloquent klingendem Text, dass ich das einfach so ermüdet abnicke.
[00: Axel Lindhorst: Und das würde gerne nochmal kurz trennen. Du hast davon gesprochen, Johannes, dass das zum Lernprozess gehört, ich meinte aber ja gar nicht, dass ich jetzt mit ChatGPT lernen will, sondern ich will wissen, wie ich meine Arbeit erleichtern kann aus meiner Brille als Content Creator, als Instructional Designer aus dem Corporate Learning heraus. Ich bin jetzt nicht der End-User, nicht der Lerner.
[00: Johannes Starke: Dann habe ich dich nicht richtig verstanden.
[00: Axel Lindhorst: Das war, das war die beiden Aspekte, die ich meinte, die mir aus Sicht meines Jobs die Arbeit vereinfachen könnten – nicht die das Lernen vereinfachen könnten für unsere Zielgruppen.
[00: Susanne Dube: Aber wie hilft dir das?
[00: Johannes Starke: Aber was erwartest du als Content Creator oder als Lern-Designer von dem ersten Punkt, von… Du hattest sokratisch-georgisches Prinzip genannt?
[00: Susanne Dube: Das würde mich jetzt auch interessieren.
[00: Johannes Starke: Genannt wird dazu führen.
[00: Axel Lindhorst: Wenn ich einen Dialog führe, wenn ich in ein Thema eintauche: das ist bei uns so üblich, wir müssen uns ja von Projekt zu Projekt mit neuen Themen beschäftigen und sagen wir, das neue Thema ist ein Gesetz. Zum Beispiel ein Antidiskriminierungsgesetz oder sowas. Dann kann ich mir erstmal Informationen besorgen, das Gesetz natürlich durchlesen und dann kann ich aber Aspekte isolieren und kann versuchen, nachzufragen und in Dialog-Form detaillierter zu werden. Das basiert, und möglicherweise auch gar nicht auf dem, was ChatGPT momentan kann mit der Wissensbasis über die es verfügt, aber das Potenzial ist doch auf jeden Fall da in der Technologie, wenn sich die Wissensbasis erweitert, noch mehr erweitert… in Echtzeit auf das Internet zugreift, möglicherweise auch auf organisatorisches Wissen.
[00: Susanne Dube: Ja, genau. Nee da hätte ich sonst eine Einschränkung gemacht, weil im Moment ist es ja so, dass die Datenbasis von ChatGPT bis 2021 reicht. Das heißt, es kann gar nicht alles Wissen drin haben und es wird ja immer wieder erzählt, merkt man auch in der Berichterstattung; es macht Fehler. Das heißt im Zweifel kann ich zwar in Austausch treten, aber ich kann mir nie sicher sein, ob das, was da wieder kommt von dem Tool tatsächlich der Wahrheit entspricht und auch richtig ist und mich auf eine richtige Fährte lockt. Also ich muss es natürlich kritisch betrachten.
[00: Axel Lindhorst: Ich kann fragen, wie ist das gemeint? Was bedeutet das? Solche Fragen kann ich stellen.
[00: Susanne Dube: Ich krieg vielleicht eine Sichtweise und dann kann ich meine eigene Sichtweise dagegen challengen.
[00: Axel Lindhorst: Die Sichtweise ja. Nee, auf keinen Fall kann ich natürlich davon ausgehen, dass das eine besonders erleuchtende Sichtweise ist, aber das meine ich ja, es stößt Gedanken an. Es löst möglicherweise auch bei mir aus, dass ich mir bestimmte Fragen überlege, um in den Dialog zu treten, und es stößt Reflexionen an. Allgemein gültig ist das nicht. Natürlich nicht.
[00: Johannes Starke: Also ich kann das absolut verstehen und ich habe da insbesondere die Hoffnung, dass vielleicht etwas unklar von uns formulierte, in menschlicher Sprache eben, die nicht präzise ist, formulierte Punkte von der AI sortiert werden können und dann aber wiederum mit konkreten, faktischen Datenbanken usw. gegengecheckt werden können und das kann ja eben die Technologie, auf der ChatGPT beruht, nach meinem Verständnis nicht leisten. Es generiert eben nur, ohne jede Möglichkeit, mit Fakten gegenchecken, potenziell plausible Sprachmuster. Aber ich glaube, da gibt es durchaus Möglichkeiten, wie sich die Technologie da weiterentwickeln könnte, also habe ich zum Beispiel nicht das fachliche fundierte Verständnis drin, aber einen Artikel von dem Erfinder von der Suchmaschine Wolfram Alpha gelesen. Und ich glaube, ich habe verstanden, dass es zwei konkurrierende Ansätze in der Forschung zur „künstlichen Intelligenz“ in Anführungszeichen gibt. Die einen sind eher so diese statistischen Herangehensweisen, das statistisch plausibel nächste Wort und das andere sind eher symbolische. Das nennt sich symbolischer Ansatz, wo man versucht, die Frage in die Einzelbestandteile zu zerlegen, in Variablen zu zerlegen und nach diesem Ansatz arbeitet Wolfram Alpha. Und wenn man jetzt die beiden Ansätze kombinieren könnte, dass man ChatGPT zur Vorsortierung, zum Verständnis, zum Analysieren des menschlichen Kauderwelsch, was da reinkommt, nutzt, dann aber an eine andere Technologie übergibt, die wirklich in Datenbanken Fakten heraussucht und mir darstellt, was sie an meiner Frage verstanden hat, also was die essentiellen Aspekte der Frage sind, was sie da in Datenbanken rausgefunden hat und mir das als mögliche Ergebnisse inklusive Quellenangaben übergibt und meinetwegen dann ein Sprachmodel wie ChatGPT, das wieder in einem Stück harmonisch klingt, einen Satz umformuliert… Dann wären das Ansätze, die ich durchaus interessant finde, wo ich mich gerne weiter beschäftigen möchte.
[00: Johannes Starke: Ansonsten wissen wir halt einfach nie, was ist davon einfach frei erfunden und was davon ist so frei erfunden, also das ist meine Erwartung, dass es mal auf meiner Sprachebene möglichst plausibel klingt.
[00: Axel Lindhorst: Aber ist das wirklich so? Es ist nicht nur sprachlich plausibel. Es ist auch inhaltlich plausibel, es ist zu 90%, sagen wir mal, korrekt in dem Sinne, wie wir es als korrekt empfinden könnten, was dort rauskommt.
[00: Susanne Dube: Ja, ich finde es auch sehr spannend, dass wenn man so bestimmte Fragen stellt, man kriegt ja schon den Eindruck, dass es ja nicht nur auf der Sprache ist, also ich stelle hier inhaltliche Fragen an ChatGPT und kriege eine Antwort und in der Regel sind die korrekt und je länger die Texte werden und je allgemeiner die Frage, umso mehr Wischi-Waschi, also allgemeiner und schwammiger wird das Ganze und dann kommen die Unkorrektheiten rein.
[00: Johannes Starke: Genau, aber du kannst dir halt überhaupt nicht sicher sein und du kannst es auch fast nicht erkennen, was davon korrekt und inkorrekt ist.
[00: Susanne Dube: Nee. Deswegen braucht es eine Prüfung aber das ist so ein bisschen vielleicht, ich hab vor kurzem, ich weiß nicht mehr wo ich gelesen habe, aber tatsächlich einen interessanten Gedanken aufgefasst, wo jemand eben gesagt: Es ist doch am Ende, wir haben, wenn wir beispielsweise bei Google recherchieren, dann haben wir entweder Webseiten, wo wir wissen, da ist ein redaktionelles Netzwerk dahinter, dann wissen wir, das sind geprüfte Daten. Da wissen wir, das ist richtig und diesem Ergebnis vertrauen wir mehr, als wenn wir vielleicht irgendwo anders was finden, auf Twitter oder Facebook, wo jemand seine Meinung geäußert hat. Und im Moment hab ich…
[00: Johannes Starke: Genau. Und die Redaktion ist auch accountable dafür. Also die kann ich zur Verantwortung ziehen und die kann ich kritisiere, wenn was falsch ist.
[00: Susanne Dube: Genau, und das ist vielleicht so dieses Ding, wo wir uns jetzt überlegen müssen, wenn wir mit einer KI wie ChatGPT sprechen, die jetzt so aufgebaut ist wie ChatGPT gerade ist, wie ordne ich die Aussagen von ChatGPT ein? Und ich würde sie vielleicht dann nicht so bewerten wie ein Ergebnis eines redaktionellen Netzwerks oder eine geprüfte Information, wo ein Buch geschrieben wurde mit Lektorat und allen möglichen Sachen dreimal geprüft, eine Doktorarbeit steckt da nicht drin, sondern da hat ein System Informationen zusammen gesucht, die es logisch zusammensetzen kann aufgrund von Algorithmen, die ich nicht verstehe. Die klingen plausibel, aber das ist dann ungefähr so, als würde ich mich mit dir, Johannes, über Tomaten unterhalten, du würdest sicherlich auch Aussagen treffen, die plausibel sind, aber ob die dann stimmen, weiß ich nicht, müsste ich nochmal nachprüfen. Also das ist vielleicht das, wo es die Aufgabe von uns ist als Mensch im Moment noch tatsächlich zu sagen, ich prüfe das dann aber nochmal nach also ich glaube jetzt im Moment kann ich das nicht als Wissensdatenbank nutzen. Ich glaube, das hat aber auch keiner von uns so gesagt. Sondern tatsächlich eher nur so zum antriggern und zum Einsortieren.
[00: Axel Lindhorst: Ja, aber Wikipedia ist auch nur eine Form von kollektiver Intelligenz in digitaler Ausprägung.
[00: Johannes Starke: Aber die durchläuft ständig Fact-Checking und dann jeder dritte Wikipedia Artikel, den du öffnest, ist angemerkt, dass hier noch was fehlt oder Aussagen missverständlich sind…
[00: Susanne Dube: Und ich weiß das.
[00: Axel Lindhorst: Und die Datenbasis für ChatGPT ist für uns natürlich so ein bisschen Black Box.
[00: Johannes Starke: Absolut.
[00: Axel Lindhorst: Das ist natürlich ein Problem, aber warum sollte man dort nicht auch auf Datenbasen zurückgreifen, die auch Fact-Checking unterliegen oder die geprüft oder irgendwie zertifiziert sind… oder natürlich auf alles… auf Realtime oder auf das gesamte Internet.
[00: Johannes Starke: Wo wieder ganz neue Probleme mit entschieden sind.
[00: Susanne Dube: Aber kommen wir vielleicht zurück, wieder zu unserem zu unserem Thema Corporate Learning, wo wir da drin stecken in den Möglichkeiten…
[00: Johannes Starke: Axel hatte vorhin noch einen zweiten Punkt genannt, auf den ich gerne auch noch eingehen würde. Wir haben jetzt uns am ersten Punkt, an dem Dialogischen aufgehalten. Und der zweite Punkt war die zweckgerichtete Aufbereitung, die du erwähnt hattest, Axel, und da stimme ich dir natürlich absolut zu. Also wenn wir Informationen in ein System geben, und das System darin bestimmte Muster erkennt oder dir Vorschläge macht, wie der Stil verbessert werden kann. Also ich meine, wahrscheinlich die meisten von uns haben DeepL permanent offen und für Übersetzungen, oder jetzt aktuell neu auch für für Lektorierungsleistungen, das als als Werkzeug zu verwenden, da setze ich auch große Hoffnung mit rein. Das geht soweit, dass - und das ist auch mein Vorschlag an euch, ob wir versuchen wollen, den Podcast im Nachgang mal durch Whisper, dieses Transkribierungstool von Open AI zu jagen – einfach nur, um es mal auszuprobieren. Also wenn die Spracherkennung dafür sorgt, dass wir zum Beispiel Barrierefreiheit in unseren Angeboten vielleicht erreichen können, weil eben automatisch Transkripte, die nur geringer Nachbereitung bedürfen, angeboten werden. Das ist natürlich alles super.
[00: Johannes Starke: Also generell dieses Ganze auch nervtötende Abschreiben von von Texten. Wenn das Feld vereinfacht wird oder eben klar, das Aufbereiten in einfacher Sprache, das sind alles Punkte. Da geben wir ja die die Sammlung von Informationen vor und rein und nutzen das Tool einfach zum Sortieren und Vereinfachen, Strukturiere. Auch wenn ich Lernenden-Feedback, was rein flutet aufnehmen kann, nach Gemeinsamkeiten durchsuchen lassen kann, wenn ich Workshop-Ergebnisse, die ganzen digitalen Zettelchen auf einem Whiteboard, die ich unglaublich lange erstmal clustern muss, bevor ich dann was daraus mache. Das ist natürlich alles sehr vielversprechend, was da möglich ist.
[00: Susanne Dube: Ja, also, das finde ich tatsächlich auch wirklich spannend, das zu betrachten und tatsächlich würde ich da nicht nur über Barrierefreiheit nachdenken, sondern das ist ja auch die Vielfalt, die ich dann anbieten kann. Also ich hab letztens, ich hab immer nicht die Geduld mir einen Podcast von vorn bis Ende anzuhören. Das ist ein bisschen peinlich das als Podcasterin zu sagen, aber das ist wirklich so. Und ich fand es total spannend, den ersten Podcast zu sehen, der tatsächlich seinen Text als Transkript angeboten hat und ich habs dann durchgelesen. Da bin ich ein bisschen schneller als beim Hören und das fand ich ganz, ganz spannend für den ersten Scan und habs mir dann danach natürlich nochmal in Ruhe angehört, also weil es ein spannendes Thema war und da diese Vielfalt reinzubringen in beide Richtungen finde ich spannend. Also einmal in diese Richtung, das lesbar zu machen, aber in die andere Richtung auch die Möglichkeit zu haben, Texte, die sonst nur gelesen werden könnten, in ein Sound File umzuarbeiten und das andere hören zu lassen, die es nicht sehen können, finde ich genauso spannend. Und wenn wir jetzt im Sinne der Vielfalt unterwegs sind, wenn ich das dann verbinde und dann komme ich wieder zu dem, was ich auch gerade zu Axel gesagt habe mit einem bildgebenden Tool. Dann habe ich die Möglichkeit, Rapid Learning breiter aufzustellen, also für Menschen, die sich nicht trauen sich vor die Kamera zu stellen, eine Möglichkeit zu geben das dann mit einem Tool zu machen.
[00: Johannes Starke: Kannst du den Punkt noch weiter erläutern? Den habe ich jetzt nicht nachvollziehen können.
[00: Susanne Dube: Ok, Axel, Du hast mir gesagt du hast dieses Koloss… irgendein Tool ausgetestet und ich habe ein anderes Tool ausprobiert und das Tool, was ich ausprobiert hab, hat folgendes gemacht. Ich konnte mir einen Avatar auswählen. Ich werde auch gleich sagen, warum ich das ganz kritisch sehe und gar nicht so super. Aber es ist eine Möglichkeit die sich auftun wird und die wird sich in kurzer Zeit auftun. Die ist schon da. Ich konnte mir einen Avatar auswählen und dann konnte ich einen Text schreiben und ich konnte den Text auch anfangen zu schreiben und sagen, vervollständige mir diesen Text. Also, das hätte mir das Tool auch weiter geschrieben und genauso hätte ich aber auch sagen können, ich gehe in ChatGPT schreibe den Text vor, lass den noch feintunen auf eine bestimmte Zielgruppe oder ähnliches, kopiere den dort rein und dann habe ich den Knopf gedrückt und dann hat mir tatsächlich mein Avatar, den ich mir ausgesucht hab, den ich vielleicht auch hätte selbst generieren können, diesen Text gesprochen. Es klang nicht perfekt, und ich glaube, wenn wir alle damit überrollt werden, dann wird das irgendwann uns langweilig sein, aber ich glaube gerade wenn wir über das Thema Rapid Content sprechen, ist das eine Möglichkeit für Menschen, die vielleicht nicht den Anspruch haben, hochwertig didaktisches Lernmaterial zu erstellen, aber ihr Wissen schnell weiterzubringen. Eine, ich sag mal, eine Art und Weise über mehrere Kanäle mit vielleicht noch einem netten Gesicht, also noch ein bisschen angehübscht, das dann entsprechend rüberzubringen. Ich seh das nicht kritiklos, aber das ist eine Möglichkeit, die gerade da ist und wir sprechen über Möglichkeiten, die es für Corporate Learning gerade hat und das gibt es.
[00: Johannes Starke: Es ist für mich eine absolute Dystopie, die du gerade beschreibst.
[00: Susanne Dube: Es ist Realität, lieber Johannes.
[00: Axel Lindhorst: Für Präsentationen für Videos.
[00: Johannes Starke: Da wehre ich mich mit Händen und Füßen gegen, weil entweder sollen die Menschen selbst ein Video aufnehmen und wenn Sie das nicht möchten, dann sollen sie einen Text schreiben.
[00: Johannes Starke: Aber ich verstehe nicht, warum ich da enorme Technik drauf werfen muss, um da irgendwie ein glattes Bildchen von einer Fake-Figur zu erzeugen. Was bringt mir das an Mehrwert für den Lernenden?
[00: Susanne Dube: Also wir also ich, ich hab dieses Thema ausgewählt, weil ich da tatsächlich auch ein bisschen drüber nachgedacht habe, denn ich habe im letzten Jahr mit Lisa den Podcast über Rapid Learning gemacht. Und das Setting, in dem wir da unterwegs sind, ist, dass wir tatsächlich Fach-Experten helfen, ihr Thema lernbar zu machen, ne, das heißt wir helfen ihnen, eine Präsentation vorzubereiten, die sie nutzen können, um dann kurze Fünf-Minuten-Lernvideos aufzumachen und die Fach-Experten sprechen dazu. Viele dieser Fach Experten haben furchtbare Angst vor der Kamera. Da kommt ganz schlimmes Gestammel raus.
[00: Johannes Starke: Ist ja völlig legitim.
[00: Susanne Dube: Was, wo du dann denkst, das hätte man auch anders machen können, wenn man den Fachexperten das leichter macht, indem man so eine Software davor stellt, seh ich das gar nicht so kritisch. Aber, und jetzt kommt mein dickes Aber: ich glaube, dass die Glaubwürdigkeit leiden wird, weil die Glaubwürdigkeit kommt ja darüber, dass der Fach-Experte spricht, und das ist vielleicht dann dieses Gegenstück, was man da sehen muss, also ich kann mir Settings vorstellen in Unternehmen, wo Menschen das nutzen werden und das ist eben nicht nur Dystopie, lieber Johannes, ich habe diese Tools gesehen, die gibt es, das kannst buchen.
[00: Johannes Starke: Okay, dann ist das eine Realität gewordene Dystopie.
[00: Susanne Dube: Also diese Möglichkeit gibt es, das zu nutzen ich weiß nicht Axel, wie war deine Erfahrung damit, du hast mir gesagt, du hast auch schon mit so einem Tool rumgespielt.
[00: Axel Lindhorst: Ja, ich hätte es verlinkt, aber es war einfach nur eine Botschaft hier haushaltsintern, die ich weiter gedehnt, nicht als Beispiel aufgenommen hab. Aber ich kann einfach mit dem Tool auch nochmal was anderes machen. Ich hab ich jetzt mal ausprobiert, allerdings muss ich sagen deutlich überzeugender als dein Beispiel.
[00: Susanne Dube: Ja, okay.
[00: Axel Lindhorst: Weil es nämlich keine KI-generierten Charaktere waren, sondern echte Charaktere, deren Lippenbewegungen dann von der K irgendwie simuliert wurden beziehungsweise von Technologie. Vielleicht ist das ist gar nicht unbedingt KI.
[00: Susanne Dube: Aber wie ist es, also ich höre bei Johannes jetzt raus, dass er gerade das Fürchten kriegt bei dem, was wir uns erzählen. Wie geht es dir, Axel, damit?
[00: Axel Lindhorst: (Seufzt). Man stößt halt ab und zu auf Sachen, auch und gerade im Bereich Audio jetzt, du kannst einfach aus Geschriebenem was Gesprochenes machen, ja klar, und dann kannst du eben auch was Gesprochenes daraus machen mit deiner eigenen Stimme, ohne dass du es selber sprichst, weil so ein Tool braucht halt nur ein paar Minuten Training und dann reicht das schon um das Ganze als Audio-File mit deiner Stimme auszugeben, die einigermaßen plausibel klingt. Also das Thema Deep Fakes, das gibt es ja nun auch schon seit einigen Jahren von Videos und von Audios und ich glaube, mit der Verfügbarkeit von Möglichkeiten wird auch die Sensibilität steigen. Und ich glaube, das ist einer der großen Kämpfe, die wir dann in den nächsten Jahren haben werden. Wie unterscheiden wir künstliche Intelligenzen beziehungsweise von vergleichbaren Technologien erzeugte Inhalte und Botschaften von realen Botschaften.
[00: Johannes Starke: Hm, also jetzt so weit bis zu Deep Fakes bin ich jetzt noch gar nicht gegangen mit meiner Kritik, also da hast du natürlich völlig recht, da warten noch ganz andere Abgründe auf uns. Ich habe ja versucht, das noch mit den besten Intentionen zu betrachten, was du beschrieben hast. Aber ich frag mich generell bei vielen Punkten, also auch, was dann alles immer so kommt, an Soft-Skills trainieren und ich brauch jetzt kein menschliches Gegenüber mehr, ich hab da irgendwie die KI animiert, man hat das KI-animierte Gegenüber, was mir direktes Feedback gibt und so weiter. Was vergeben wir uns da an Chancen? Da werfen wir Technik auf strukturelle oder gesellschaftliche Probleme, weil es braucht einfach nur ein menschliches Gegenüber, mit dem ich eine vertrauenvolle Kommunikation führen kann. Warum muss ich denn das mit einer Technik simulieren und noch weiterer Punkt… ich hab eigentlich viele Punkte jetzt schon wieder.
[00: Johannes Starke: Du hast, Susanne, das Rapid Learning Beispiel genannt und du hast einerseits gesagt, da kann ich mit Text anfangen zu schreiben, dann wird er mir weitergeführt.
[00: Susanne Dube: Das kann ich tun, ich muss es nicht tun, ich kann es tun.
[00: Johannes Starke: Ja genau und dann das zweite eben, dann wird mir so ein perfektes Avatar generiert, der dann vorträgt, was ich was ich zu sagen habe, was ich, was ich viel viel spannen.
[00: Susanne Dube: Wenn ich das möchte, ich fand ihn nicht so sehr perfekt. Aber es ist egal.
[00: Johannes Starke: Was wir glaube ich immer oder was, was Lisa und du und der Rapid Learning Folge, wenn ich mich jetzt noch richtig erinnere, besprochen hatten war ja auch, wie wertvoll der Aspekt der Erstellung von Rapid Learning Content für die fachliche Auseinandersetzung mit dem Thema ist. Insbesondere auch für die Fach-Expert:innen und also das da einfach auch durch die fachliche Auseinandersetzung mit dem Thema etwas Neues entsteht als wertvolles Nebenprodukt beim Generieren des Inhalts. Und zum anderen, das ist ja so wertvoll ist, dass wir den Menschen die Person im Unternehmen erkennen. „Aha, das ist jemand, der kann mir weiterhelfen, das ist jemand, der steht für das Thema“, da ist der menschliche Aspekt der Relevante, viel, viel weniger, was da jetzt an fachlichem Input Output bei rauskommt.
[00: Susanne Dube: Also sagen wir es mal so also ich bin bei einer Sache mit dir die Frage ist es diesen technischen Aufwand wert? Das kann man sich jetzt immer fragen: ist es das wirklich wert, muss man das so machen? Aber was du gerade gesagt hast, diese Auseinandersetzung, die der Fach-Experte mit dem Thema hat, die könnte er ja auch haben bei der Generierung des Textes. Also ich werde den Text nicht per sé nur von der KI entwickeln lassen, sondern da muss es trotzdem, und das ist vielleicht auch die Aufgabe, die bei uns im Corporate Learning bleibt. Es muss reduziert werden, es muss geguckt werden, was sind die Kernaussagen da drin. Es muss ein bisschen sortiert werden, es muss eine Gewichtung rein in den Informationen. Es muss vielleicht nochmal überhaupt geschaut werden, mit welchen Personas, mit welchen Zielgruppen habe ich zu tun für dieses Thema? Was ist die Aufgabe darin? Das heißt, die Auswahl der Inhalte und auch die Aufbereitung der Inhalte, die kann vielleicht KI-unterstützt sein, aber die ist nicht voll-KI, das heißt, ich brauche den Experten weiter, der hat seinen Austausch dann immer noch. Das einzige wo ich ihn vielleicht vor schütze, ist sein Lampenfieber, so nenne ich es mal.
[00: Susanne Dube: Nämlich sich vor die Kamera zu stellen und dann dort da zu spreche. Und wenn ich jetzt weiter denke und ich weiß gar nicht, ob das im nächsten Halbjahr kommt oder wann das kommt und ich sag, ich könnte dann ein Bild von mir irgendwann einspeisen und dieses Bild redet für mich und ich muss nicht davor sprechen. Dann sind wir aber wissen bei den Surrogates um wieder dieses Film-Thema reinzunehmen, ist vielleicht dann auch nicht das beste. Aber ich glaube, es gibt Gedanken die man machen kann und ich jetzt in dem Gespräch mit uns bin ich überzeugt davon, wenn ich jetzt die aktuelle Zeit und das Thema KI im Corporate Learning betreffend mir anschaue, glaube ich, dass wir im nächsten halben Jahr einen Zeitpunkt des Versuchens haben werden, vielleicht einen zögerlichen Zeitpunkt des Versuchens, es wird viel passieren weiterhin und wir werden tatsächlich Sachen ausprobieren und es wird spannend sein nach dem halben Jahr noch mal dazu zu sprechen. Glaubt ihr, dass wir jetzt, wir haben über das dialogische Arbeiten übers Texte exzerpieren oder bearbeiten gesprochen. Was wir haben, was die Möglichkeiten sin. Ich hab ein ganz böses Beispiel aufgetan, nämlich zu sagen, wir können WBTS und Videos auch mit KI erstellen, das ist momentan persönlich.
[00: Johannes Starke: Das ist auch noch nicht abgeschlossen.
[00: Susanne Dube: Ich könnte jetzt noch ein Thema aufmachen und sagen, was ist eigentlich mit adaptiven Lernsystemen, was haben wir da jetzt schon für Möglichkeiten? Von daher, Johannes, aber du sagst, es ist noch nicht abgeschlossen da schau ich ein bisschen auf die Uhr.
[00: Johannes Starke: Axel hatte vorhin das Beispiel aus der Musik gebracht. Da fiel mir ein ganz wunderbarer Vergleich ein, den ich gerade gestern gelesen hatte von Dave Cormier, ja, der hat ChatGPT als Autotune for Knowledge beschrieben und er sprach mir so sehr aus der Seele, das wir uns durch diese Unterstützung, die uns keine Quellen gibt, die uns den Shortcut gibt, dass wir uns so viel vergeben im Lernen und eben auch Aufbereitung gemeinsam mit Fachexpert:innen bei der Erstellung von Content. Wir vergeben uns das Recherchieren wir vergeben uns das Einholen unterschiedlicher Perspektiven. Wir bekommen einen halb vorgekauten Text, den man so veröffentlichen kann, den man vielleicht auch noch überarbeiten kann. Aber das ist eigentlich genau diese Funktion, die Autotune erzeugen ich, ich singe was schief und krumm in die Kamera… ich muss mir eigentlich keine Mühe mehr geben ins Mikrofon rein, weil das System pegelt meine Stimme an und jetzt muss ich den Bogen noch zu Ende spannen.
[00: Johannes Starke: Wir vergeben uns da, in einem Thema tiefer einzutauchen, weil eben dieser Shortcut genommen wird, aber das Ergebnis ist für die meisten, ja so für Gebrauchstexte, ist es vielleicht ok. Aber was jetzt? Was Dave hier noch nicht genannt hatte, was ich ganz spannend finde, wie sich die Musikindustrie erst nach einigen Jahren des Autotune-Einsatzes kreativ begonnen hat mit den Möglichkeiten auseinanderzusetzen, bis hin zum absoluten Überdrehen des Autotune-Reglers. Und da finde ich, wird es dann wieder spannend, wie wir solche Algorithmen auf eine kreative Art und Weise einsetzen, als Instrument einsetzen für… ich liebe solche völlig verzerrten Autotune Stimmen, wenn eben ganz klar sichtbar ist:. Hier wurde an den Reglern gedreht, hier wurde die Technologie im kreativen Maße eingesetzt.
[00: Susanne Dube: Also ja bei Musik, ich gebe dir vollkommen recht, also ich kann dem vollkommen folgen, was du mir da sagst. Ich glaube nur, dass in deiner Argumentation ein Fehler drin ist, weil das so tut, als ob, wenn ein Tool Nutzer, was mir den Sprecher stellt und ich ein Tool nutze, was mir vielleicht den Text mal vervollständigt. Dann wird das medieninhaltlich gar nicht vervollständigen können, weil ich rede immer noch von einem Sprachmodellierungssystem, das vielleicht kein Faktenwissen hat in dem Moment. Das heißt, es geht schlichtweg darum, dass der Text vielleicht gerade gezogen wird. Das heißt aber nicht, dass ich mich nicht vorher damit auseinandersetzen muss. Das heißt, dass diese Auseinandersetzung mit dem Thema beim Fac- Experten oder auch vielleicht bei mir nicht da ist, dass die didaktische Vorarbeit nicht gemacht werden muss. Ich glaube, schlechter Content, der schlecht überbracht wird, der wird vielleicht schlecht bleiben, aber wenn ich mich immer noch hinsetze und didaktisch darüber nachdenke, was soll drin sein, wie baue ich das Ganze auf, wie bette ich das Ganze ein? Wenn ich das versuche zu unterstützen, dann ist es mir schlichtweg einfach eine Hilfestellung erstmal, und dann seh ich das gar nicht so dramatisch wie du das siehst. Ich stimme dir aber zu, wir probieren gerade alles Mögliche aus und es ist nicht alles gut. Und es ist vielleicht wie diese kleinen Bildchen bei Powerpoint, ich weiß gar nicht mehr wie die hießen.
[00: Johannes Starke: Smart Arts oder?
[00: Susanne Dube: Ja, Smart Arts genau. Und alle Leute haben Smart Arts in die Powerpoint reingebracht, bis wir gemerkt haben, so Gott… das ist der größte Quatsch und so ähnlich ist es jetzt vielleicht auch mit KI. Das ist, sagen wir, wir werden damit zugemüllt, gerade mit schnell erstelltem Content, den Leute ganz, ganz toll finden und dann merkt man: Ok und was ist jetzt eigentlich die richtige Nutzung davon und da stimme ich dir zu, das passt dann vielleicht so ein bisschen wie bei den Autotunes in der Musik?
[00: Johannes Starke: Und jetzt, wo du es gesagt hast, fällt natürlich auch gerade auf, aber ich will dir die Hand reichen, dass der Autor im Vergleich auch nur so halbgar ist, weil ich hab ja selbst vorher gesagt wenn mir DeepL ein Lektorat angedeihen lässt und mir alternative Begriffe usw auf meinen holprig formulierten Text gibt, dann ist das ja auch eine Art Autotune, aber in dem Fall finde ich es durchaus hilfreich.
[00: Johannes Starke: Weil ich wie gesagt ja, ich hab den Content erstellt und lasse meine handwerklichen Mängel nicht unterstützen, die hier zu beheben, indem ich mir alternative Begriffe usw suche, was sich tatsächlich in dem Fall auch noch super spannend finde, das ist ein Argument, von dem besagten Warten-Professor. Der sagt, in der Vergangenheit oder aktuell ist es leider oft noch so, dass eben bedingt durch Mängel sich eloquent auszudrücken und so viele akademischen Arbeiten von Ghostwritern geschrieben werden, dass wohl in in Kenia die größte Industrie am Ghostwriting existiert, wo dann mit Eingabe von entsprechenden fachlichen Häppchen dazu die Texte erstellt werden. Das ist natürlich schlimm.
[00: Susanne Dube: So furchtbar, oder?
[00: Johannes Starke: So, und jetzt sind wir auf dem nächsten Level, das in Kenia, die, die die Content Flagger sitzen, die das Rohmaterial, was in Open AI Tools Reinfließt, bewerten und sortieren.
[00: Susanne Dube: Ja, ich habe aber gehört, das wird ja von den Social Media Anbietern auch gemacht, dass die irgendwo da jetzt etwas machen.
[00: Was es ja nicht besser macht. Also ich meine nur, das ist es wird immer… die scheiß Arbeit wird ausgelagert an Menschen, die darunter zu leiden haben, dass es diese Tools gibt.
[00: Susanne Dube: Da reißt du wieder ein neues Thema auf und uns rennt die Zeit davon und da sind wir auch ein Stück weit weg vom Corporate Learning, aber lass uns gerne darüber sprechen oder schreiben im Nachgang. Ähm, ich würd gerne, es sei denn, Axel, dich haben wir jetzt gar nicht mehr zu Wort kommen lassen. Wolltest du noch was ergänzen?
[00: Axel Lindhorst: Fast schon etwas, was wie ein Schlusswort klingt: Was sich in der beruflichen und privaten Praxis sedimentieren wird, wird sich mittelfristig erst zeigen. Was aber bleibt mittelfristig nach meinem Gefühl und offenbar auch nach deinem und auch nach Johannes‘ Gefühl, ist die menschliche Verantwortung, der Faktor menschliche Verantwortung in vielen Bereichen schon in der Auswahl der Tools. In der Qualität des Inputs. In der Art der Fragestellung, in der Kuration, in der Qualitätssicherung, natürlich in der Aufbereitung des Outputs… Da sind noch sehr viele Aufgaben, auch um die künstliche Intelligenz herum übrig und sehr viele Aufgaben mit hoher Verantwortung für die Menschen, die mit damit umgehen.
[00: Susanne Dube: Genau und jetzt habe ich tatsächlich und das wäre dann quasi die Zukunftsfrage, die darauf aufbauen würde, auf dem, was du jetzt gesagt hast. Wir müssen lernen damit umgehen. Jetzt stellen wir uns eine Welt vor in 10, 15 Jahren, wenn wir das vielleicht gelernt haben, wie würden wir uns das vorstellen? Aber ich glaube, wir schaffen es nicht mehr, denn wir reden jetzt grad schon ne Stunde. Das würde mir zeigen, dass es vielleicht Sinn macht, sagt mir mal beide, ob das stimmt? Ist es sinnvoll, dass wir uns in einem halben Jahr oder vielleicht wirklich im Oktober noch mal treffen und nochmal rückblickend vielleicht diese Zukunftsfrage für uns nochmal angucken? Welche Chancen liegen da drin oder vielleicht werden wir ja merken, „Oh Gott, ist alles vorbei, hat sich erledigt, es gab rechtliche Prozesse, ist alles kaputt“.
[00: Axel Lindhorst: Das Thema bleibt natürlich heiß, da bin ich sicher. Also ich würde das interessant finden.
[00: Johannes Starke: Ja, bin ich dabei.
[00: Susanne Dube: Ja, dann würde ich sagen, Johannes, du darfst auch noch einen Schlusssatz sagen. Ich glaube, Axel, hat ja jetzt sein Schlusswort schon fast gehabt, oder?
[00: Johannes Starke: Genau. Also ich versuche auch versöhnlich und positiv zu stimmen, aber ich bin auf jeden Fall sehr dankbar darüber, wie ChatGPT die Diskussion, was Lernen ist was, was Wissen ist, was Intelligenz ist, was Dialog ist, neu entfacht hat. Ich freue mich sehr darüber, dass ChatGPT das schulische und universitäre Bildungssystem erschüttert und hoffe, dass von diesen Erschütterungen, die da gerade im Gange sind, auch einiges an Lernen in Unternehmen rüberschwappt. Dass wir uns eben viel verstärkt haben, ansetzen was können wir als Menschen, was die Qualität unserer Arbeit ist. Ich hoffe sehr, dass wir Wege finden, dass wir diese Technologie, die sich gerade stark entwickelt, auf einer Art nutzen können, dass sie im besten Falle unabhängig von großen Tech-Konzernen, dass sie auf einer transparente Art und Weise… auf eine Art und Weise, wo wir Einfluss nehmen können, die wir verstehen können, die Daten sparsam ist, die auch Klima-gerecht ist, weil das ist ja auch nur ein Punkt, den wir noch gar nicht angesprochen haben. Ohne Ausbeutung von Menschen und so weiter und sofort, dass wir Wege finden, damit umzugehen und die Möglichkeiten sind da viele von diesen Tools sind, basierend auf einer Open Source Basis und ja, wir dürfen Hoffnung haben, dass die weitere Geschichte jetzt nicht durch die großen TechKonzerne zu schnell kassiert wird.
[00: Susanne Dube: Du schaffst es mit einem Schlusswort wirklich in mir so viele Gedanken anzutreten, wenn ich weiter sprechen könnte. Das zeigt mir aber tatsächlich – und das ist immer Hoffnung, die ich habe, wir in nächster Zeit bestimmt noch ein paarmal darüber reden werden, vielleicht nicht zwingend im Podcast, aber uns sicherlich weiter damit beschäftigen und da freue ich mich drauf, weil ich wirklich glaube, dass ich neue Möglichkeiten auftun und mit neuen Möglichkeiten auch immer Themen, mit denen wir uns ernst auseinandersetzen müssen, damit es nicht in eine falsche Richtung geht. Ich glaube, dass wir heute nur ein ganz, ganz kleines bisschen angekratzt haben zu dem, was man alles bereden konnte. Ich hätte noch so viele Ideen im Kopf. Aber eine Stunde ist wirklich lang genug, deswegen Danke an euch beide und ich buche euch für Oktober.
[00: Johannes Starke: Der zweite Ansatz hat sich auf jeden Fall gelohnt. Lass uns das jetzt nicht fortsetzen. (Lachen).
[00: Susanne Dube: Genau und freu mich da auch auf die nächsten Sachen und falls jemand da draußen, falls jemand von unseren Zuhörerinnen und Zuhörer seine Meinung kundtun will und uns da Rückmeldung nochmal geben will und vielleicht auch bei den Ideen die wir haben weiterhelfen will, diskutiert gern mit uns.
[00: Susanne Dube: Wir freuen uns auf euch und damit sag ich danke fürs Zuhören und danke euch fürs Gespräch von Herzen und bis zum nächsten Mal. Tschüss.
[00: Axel Lindhorst: Danke, Tschüss.
[00: Susanne Dube: Übrigens habt ihr uns schon abonniert, das geht überall dort, wo ihr eure Podcasts am liebsten hört. Lernlust gibt es alle drei Wochen neu und wir freuen uns auf euer Feedback und vor allem auf den Austausch mit euch. Wie ihr uns erreicht: ihr könnt uns auf Prodigy schreiben oder ihr folgt dem Lernlust Podcast auf Mastodon. Natürlich gibt es uns auch als echte Person auf Mastodon, Twitter oder LinkedIn, sagt uns also, was euch gut an unseren Podcasts gefällt und wo wir noch besser werden können. Und wenn ihr nicht diskutieren, sondern einfach nur bewerten wollt, dann geht das auch auf Google Podcasts oder einem Portal eurer Wahl, wie ihr auch entscheidet wir hören uns wieder bei der nächsten Folge des Lernlust Podcasts.
Neuer Kommentar