#37 Teil 2/2 Über Risiken und Nebenwirkungen von KI: Wie beeinflusst sie unser Gehirn? - mit Dr. Orell Mielke

Shownotes

Nutzt ihr KI schon als echten Sparringspartner oder lasst ihr sie einfach nur die Arbeit für euch machen? Dr. Orell Mielke erklärt uns in diesem Gespräch, warum „Kognitives Offloading“ dazu führen kann, dass die Verbindung zwischen unseren Hirnarealen nachlässt, wenn wir zu viele exekutive Funktionen auslagern. Es ist erschreckend, wie wenig wir uns an Inhalte erinnern, die wir rein durch KI erstellen lassen. Doch es gibt einen Weg, wie ihr durch die richtige Interaktion eure Kreativität und euer Gedächtnis sogar augmentieren könnt. Wir sprechen über Dopamin-Loops, die Sucht nach schnellen Antworten und warum echte menschliche Verbindung in einer KI-Welt wertvoller wird als je zuvor.

Damit ihr nicht in die Falle der „kognitiven Schuld“ tappt, zeigt euch Dr. Orell Mielke, wie ihr durch Mikroaufgaben und klare Fokus-Blöcke eure Selbstwirksamkeit bewahrt. Ihr lernt, warum Bildung und echte Erlebnisse die besten Gegengifte gegen die digitale Gleichschaltung sind und wie ihr KI-Modelle so trainiert, dass sie euch herausfordern, statt euch nur nach dem Mund zu reden. Entdeckt, wie ihr eure kognitive Kraft schützt und gleichzeitig die Vorteile der neuen Technologie voll ausschöpft, ohne dabei euer „echtes“ Ich zu verlieren.

Wenn euch das Thema gefällt, dann schaut doch mal in Orell's Neurohacking Community vorbei: https://www.skool.com/neurohack-oder-neuromythos-1710/about?ref=0f210a84713545f991d7d166a038d588

Schaue auch auf Instagram vorbei, um stets die neusten "gesund SEIN" Infos zu erhalten oder besuche die "gesund SEIN" Homepage

Kontaktiere mich gerne mit deinen Themenvorschlägen oder deinem Anliegen: stefanie@gesundsein-podcast.com

Transkript anzeigen

01:00:00: Speaker 1 Hallo zusammen zu einer neuen Episode im Gesundheits-Podcast. Heute zum zweiten Mal mit Orel Mielkör. Guten Morgen, Orel.

01:00:07: Speaker 2 Guten Morgen, Stephanie.

01:00:08: Speaker 1 Wir hatten beim letzten Mal so viele offene Tab, wie ich es genannt habe, zu superspannenden Themen im Bereich Neurologie. Und ein großes Thema, was ich mit dir damals nicht aufmachen konnte, was ich aber total relevant finde, ist, wie verändert eigentlich oder wie beeinflusst eigentlich die KI, die künstliche Intelligenz und vor allen Dingen natürlich die Nutzung von künstlicher Intelligenz. Unsere Neurobiologie, das geht ja in ganz viele verschiedene Richtungen und ich bin mir sicher, du hast dich schon mal mit dem Tim auseinander gesetzt, oder?

01:00:43: Speaker 2 Oh ja, also einerseits bin ich selber enthousiastischer KI-Anwender. Ich bin jetzt kein Experte, aber ich liebe das. Und ich interessiere mich natürlich auch, wie die Wirkung von KI auf unser Gehirn ist. Das bespreche ich auch in den Keynoten oder ist auch ein Thema von Keynoten, weil mich natürlich auch interessiert, was sind vielleicht Nachteile, was sind Vorteile und wie können wir das Beste draus machen?

01:01:06: Speaker 1 das, was ich mich immer am allermeisten Frage ist, wir lagern ja eigentlich ganz viel unserer Exekutivfunktionen eigentlich aus an die KI. Und kognitive Auslagerung ist für mich immer so ein Stichwort, wo ich denke, oh, werden wir dadurch dümmer? Also, wenn wir sozusagen Aufgaben abgeben und die nicht mehr selber bewältigen, was macht das dann damit? Verlieren wir da wirklich irgendwie Gehirn, Masse oder Kompetenzen mit über die Zeit?

01:01:32: Speaker 2 Ja, es gibt so ein Phänomen, es ist natürlich alles erst noch sehr früh in der Entdeckungsphase. Es gibt dieses Kognitive Offloading, wie wir das oder Kognitive Dead, also die kognitive Schuld, die wir eingehen, wenn wir zu viele von diesen kreativen, exekutiven Funktionen an die KI sozusagen abgeben. Das, das tatsächlich, das tatsächlich so. Es gab diese berühmte MIT-Studie letztes Jahr, auch wenn die kritisiert wurde, aber es ist zumindest mal an Anfang, haben wir zum ersten Mal Daten gesehen, da hat man Studenten eine ganz einfache Aufgabe gegeben. Die sollten ein Artikel schreiben und man hat die dann noch in drei Gruppen unterteilt. Und eine Gruppe, die durfte oder musste nur KI verwenden, eine Gruppe konnte so Google verwenden und eine andere Gruppe hat dann nur ihr Gehirn benutzt. Und man hat gesehen, dass die, die nur KI benutzt haben, tatsächlich eine geringere Verbindung von verschiedenen Hirnarealen hat. Das hat man mit EEG-Messungen gemacht. Und das war ganz spannend. Bei Hirn war natürlich die Verbindung am größten. Das viel schlimmer war aber, als man dann die Studenten, ich glaube, nach Wochen oder Monaten gefragt hat, was sie denn noch erinnern, dann konnten die, die KI verwendet haben, so gut wie nichts, die wussten nichts mehr. Also, ich glaube, 11 Prozent konnte noch einigermaßen sagen, was sie da geschrieben haben, wohin gegen das 80 Prozent oder 90 Prozent ungefähr war bei den, die nur ihr Gehirn verwendet haben. Das heißt, ja, durch so passive KI-Nutzung baut unser Gehirn tatsächlich ab.

01:03:09: Speaker 1 Und das ist ja eigentlich total erschreckend, wenn man überlegt, wie häufig und vor allen Dingen in wie vielen Berufen KI mittlerweile wirklich zum Alltag gehört. Und die Tatsache, dass wir jetzt über, ich sag mal, die letzten zwei Jahre, also es ist ja erst, dass wir wirklich in der Masse sozusagen auch KI-Tools überhaupt zur Verfügung haben zur Nutzung, um unsere Denkprozesse zu ersetzen, haben zu denken, okay, und das geht jetzt noch mal so lange weiter und noch mal und noch mal. Und die Modelle werden ja nur besser. Das heißt, sie nehmen uns immer mehr und immer besser diese Denkprozesse ab. Ehrlich gesagt, zeichnet das für mich ein extrem gruseliges Bild. Und das finde ich

01:03:48: Speaker 1 wichtig, dass wir darüber sprechen und auch aufklären, wie sozusagen wir eine KI-Nutzungskompetenz entwickeln können, mit der wir uns also vom Gehirn her nicht zurückentwickeln. Mit der wir sozusagen weiterhin kompetent bleiben. Denn es gibt ja diese Use-Cases, diese Nutzungsfälle von KI, in denen wir auch unselber und unser Gehirn dabei weiterentwickeln können. Deswegen könntest du kurz sagen, wenn wir jetzt genau unter dieser kognitiven Auslagerung neurobiologisch nicht leiden wollen und uns abbauen wollen, was ist denn dann wichtig zu verstehen bei der Nutzung von KI und was müssen wir beachten, damit genau das nicht passiert, damit wir eher dabei lernen und sozusagen mit der KI als Sparingspartner vielleicht sogar noch mehr Tiefe erreichen, als wir es vielleicht ohne könnten.

01:04:38: Speaker 2 Ja, wenn du erlaubst, würde ich gerne noch einen draufsetzen, bevor wir zur Lösung kommen, weil es gibt natürlich positive Effekte, wie man KI ganz sinnvoll nutzen kann. Und da gibt es auch heute in Studien auch spannende Ergebnisse. Aber es gibt noch eine Verschlimmerung sozusagen.

01:04:57: Speaker 2 Es gibt Studien, die zeigen, es gibt diesen Dunning-Cruer-Effekt.

01:05:00: Speaker 2 Der ist bekannt unter die Menschen oder die am wenigsten wissen, haben häufig die Bezeugung, dass sie ganz viel wissen.

01:05:09: Speaker 1 meinem Lieblingsausdruck ist er dem Zusammenhang.

01:05:11: Speaker 2 Was denn?

01:05:11: Speaker 1 Peak of Mount Stupid.

01:05:12: Speaker 2 Peak of Mount Stupid, genau.

01:05:15: Speaker 1 Das darf uns starten.

01:05:16: Speaker 1 Wenig Wissen hohe Selbstvertrauen.

01:05:19: Speaker 2 Also, people who know the least often think they know the most. Also, es ist tatsächlich, die mit dem wenigsten Wissen denkt oft, sie wissen am meisten. Jetzt könnte man ja meinen, dass KI dem hilft, weil ich jetzt ja plötzlich sehr viel wissen. Das Problem ist, ja, der Dunning-Cruer-Effekt verschwindet jetzt das Problem, aber andersherum. Das heißt, plötzlich fühlen sich alle super confident, super haben super bewusst sein, weil die KI jetzt sehr kluge Antworten gibt. Und wir unterschätzen dann, wenn wir das nicht hinterfragen, wenn wir nicht unsere eigene kognitiven Kraft einsetzen,

01:05:56: Speaker 2 dass das tatsächlich die Wahrheit ist und wir geben das dann auch raus. Das heißt, das ist ein großes Problem. Das heißt, KI macht alle Menschen gleichwissend oder nicht inkompetent darin, ihre eigene Kompetenz zu bewerten. Und gerade die, die technisch versiert sind am meisten. Und das ist die große Gefahr, dass wir blind werden auf die Inhalte, die uns vorgaugeln, weil die so perfekt sind, und wir die nicht mehr hinterfragen.

01:06:24: Speaker 1 Genau, weil genau das ist ja eigentlich der wichtige Punkt, immer zu wissen, wo ist denn mein blinder Fleck? Was ist es, dass ich nicht weiß? Und nur durch diese Kompetenz, durch diese Einschätzung dieses Vermögen können wir eigentlich uns sozusagen auch vor Risiken bewahren. Oder wirklich realistische Vorteile ausrechnen, Chancen berechnen, Wahrscheinlichkeiten berechnen. Ich finde das immer so irre, wenn man die, je nachdem wie man natürlich die Prompts, die die Anfragen sozusagen der KI auch stellt, kommt ja zurück, naja, was man halt gefragt hat. Und in den meisten Fällen sagt die KI tolle Idee, grandiose Idee. Hier sind deine Erfolgswahrscheinlichkeiten und warum das funktionieren wird zum Beispiel. Wenn man die KI dann aber mal fragt, warum könnte es denn auch nicht funktionieren? Das waren aber die meisten Menschen nicht. Dann hat man wieder so die Balance hergestellt. Aber da geht es halt eben darum, was frage ich denn ganz konkret, was will ich haben? Weil genau das geht nicht mehr.

01:07:18: Speaker 2 Absolut. Und das führt dann auch schon einen Weg zur Lösung.

01:07:23: Speaker 2 Weil wir haben diesen, naja, das ist ein ganz komisches Wort, dieses ultra-krepidiarinismus. Das ist ein griechisches Wort. Das heißt, wir haben diese Ultra-Glaubwürdigkeit von KI, weil sie uns so perfekte Antworten liefert und es nicht mehr hinterfragen. Also er nutzer merkt das gar nicht mehr. Das kommt natürlich darauf an, wann das gefährlich ist und wann nicht. Also wenn ich jetzt im klinischen Kontext bin als Arzt oder wenn es darum um wichtige Entscheidungen geht, dann ist es schon sehr relevant. Oder wenn es um Kundendaten und Kundennutzen geht. Also wenn das jetzt vielleicht ein Rechercheobjekt ist, dann ist es vielleicht nicht so wichtig. Wenn es um Wissensthemen geht, um mich fortzubilden. Aber sobald es etwas geht, wo eine Handlung ist, die etwas wirkt, was beeinflusst mein Leben, meine Sicherheit, dann ist es schon ein Risiko. Und wie du es schon gesagt hast, das richtige Prompten. Weil die KI, das kenne ich auch, ich schreib was und ich sage toll, tolle Idee. Und dann habe ich gesagt, na aber eigentlich ist es gar nicht so eine tolle Idee, was ich da mache. Und ich hatte schon oft Projekte, dann habe ich das alles wieder weggekippt, weil ich gemerkt, das führt zu nichts. Und man kann die KI so trainieren, dass man ihr sagt, okay, du hast mir es gegeben. Und jetzt zeige ich mir mal drei Fälle, warum das nicht klappt. Oder durchdenke noch mal, was die Risiken

01:08:33: Speaker 2 können. Also, man kann entweder, es gibt so Master Prompts, so Magic Prompts, die sind die Kursionieren im Netz, die sehr lang sind. Und gerade, wenn es um glaubwürdige Informationen geht, die man haben will, dass man diesen Prompt entweder im Hintergrund immer laufen lässt. Oder man halt zusätzlich andere KEs verwendet oder mal anders fragt, aber immer wieder die Möglichkeit offen lässt, dass es falsch sein könnte. Wenn in der Wissenschaft Falsifizierbarkeit, das heißt, erst was er sagt, könnte auch falsch sein und warum könnte es falsch sein?

01:09:07: Speaker 1 Und wenn man einmal verstanden hat, wie man sozusagen genau mit dieser KI umgeht, dass man valide Informationen bekommt oder zumindest ein ganzheitliches Bild auf das eigene Vorhaben, die eigenen Ideen, die eigene Arbeit, dann hat es ja auch wiederum einen sehr positiven Reflexionseffekt auf einen selbst richtig, weil man irgendwie aus verschiedenen Perspektiven plötzlich denken muss und so ein bisschen das Ego vielleicht auch verliert und fallen lässt in den Sachen. Und das finde ich wiederum einen sehr positiven Effekt. Und da sieht man mal, wie nah beieinander eben dieses negative und dieses positive in der Arbeit mit KI beieinanderniegt und was für ein schmaler Grad das ist.

01:09:46: Speaker 2 Absolut.

01:09:47: Speaker 1 Neben diesen, also was ich ein superheißen Typ finde, ist zum einen diese Master oder Magic Promps, die du gesagt hast. Ja, also

01:09:54: Speaker 1 anhand einfach nur dem Lesen von diesen Promps kann man verstehen, so funktioniert der KI. Und ich glaube, die meisten Menschen schauen eben gar nicht so sehr auf diese anderen Sachen, auf ja, ich sag mal professionelle Promps, sondern sie nutzen die KI halt so, wie sie meinen, dass sie sie nutzen können. Die machen einfach Chat-Tip mit dir auf, das Fenster auf.

01:10:15: Speaker 1 weil die meisten, glaube ich, da total unbedarf dran gehen und denken, cool, das ist jetzt hier wie ein Chat-Fenster auf WhatsApp und ich schreibe da einfach mal was rein und dann macht das ja irgendwie auch Spaß, wenn man jemanden hat, der im einem immer so nach dem Mund redet. Sag ich immer, das ist ja irgendwie toll fürs Ego, das fühlt sich erst mal gut an und der sagt, ja super und der ist positiv und so, warum soll ich daran jetzt drehen? Ich glaube, das ist schon diesen Erkenntnisprozess, glaube ich, muss man einmal durchlaufen haben und auch wirklich die Risiken mal vor Augen haben, damit man, ja, damit anders umgeht.

01:10:48: Speaker 2 Genau, immer wieder hinterfragen, hängt immer davon ab, was will ich jetzt wissen, wenn es eine einfache Wissensfrage ist, brauche ich das nicht. Wenn ich aber davon mein Verhalten verändere, dann sollte ich schon mal nachfragen, könnte es auch anders sein und das ist auch ein spannendes Ergebnis, was diese Studien gezeigt haben.

01:11:05: Speaker 2 Wenn wir

01:11:07: Speaker 2 wenn wir fragen und dann die KI verwenden, dann ist unser Gedächtnis oder unsere Kreativität noch besser, als wenn wir nur unser Gehirn verwenden würden. Das heißt, wir sind sowas wie ein moderner Centauri, das heißt, also Mischwesen, wo uns tatsächlich die KI augmentiert, wo uns die KI wirklich stärker macht, als würden wir nur unser Gehirn verwenden und das ist ja die große Chance, das ist ja das, was wir wollen. Wir wollen nicht nur Zeit sparen, wir wollen auch besser werden durch die KI und das erreichen wir, indem wir die KI als Barringspartner sehen, als, ich sag mal, brillanten und superschnellen Gehilfen, aber nicht als Boss, der uns die Antwort liefert, sondern er liefert uns ein Entwurf und wir sind der Chef und sagen, naja, warum könnte das jetzt nicht stimmen? Und das geht es herauszufinden, also mein Sohn zum Beispiel, der Verwendung ist auch die beste Anwendung für KI zum Lernen. Der hat, der studiert Cyber Security und er verwendet Gemini, um ihn die Aufgaben zu erklären. Er sagt, ich habe die Aufgabe so und so gelöst, was sagst du dazu? Und er sagt, dann ja, du bist auf dem richtigen Weg, aber guck nochmal da. Also er hat die Gemini so programmiert, dass ihm nicht hättige Antworten gibt, sondern immer wieder fragt, ob er auch alles richtig bedacht hat. Also so ein Art so kratischen Dialog entwickelt, es gibt KI, da ist es eingebaut oder es ist ein Modus, ein so kratischen Dialog, ich glaube, das ist bei GROC,

01:12:40: Speaker 2 wo die KI nicht fertige Antworten gibt, sondern dich immer wieder mit Fragen konfrontiert, damit du dir klar wirst. Das ist der Weg, wie wir KI am besten nutzen.

01:12:52: Speaker 1 Und so kann man, also diesen, ich sag mal, diesen so kratischen Dialog, der

01:12:57: Speaker 1 definiert sich eben dadurch, dass immer wieder Rückfragen kommen, also dass das eigene Denken angeregt wird.

01:13:04: Speaker 2 Richtig.

01:13:04: Speaker 1 Und das ist ja auch wichtig nochmal zu vielleicht auf die Meta-Ebene auch zu heben. Welche Arten der KI-Interaktion, wie beispielsweise der so kratischer Dialog, sind denn sozusagen noch biologisch gut positiv für uns? Und welche Arten sind negativ? Und so finde ich, kann man ganz gut darüber nachdenken, wenn man natürlich sagen kann, hey, ich habe jetzt irgendwie, keine Ahnung, fünf Kanäle, der eine ist gepromptet auf den so kratischen Dialog. Den frage ich, wenn ich das und das machen möchte. Und dann weiß ich, vier von fünf meiner Kanäle sind irgendwie, ich sag mal, noch biologisch irgendwie positiv programmiert. Damit kann ich mehr auch wie so eine systematische Absicherung vielleicht auch geben, dass ich eben nicht so reinverfalle, in dieses Faul werden nur auslagern und eben gar nicht so sehr in diese positive Beziehung kommen kann.

01:13:57: Speaker 2 Ganz genau. Und so ein Prompt, sollte man sich einmal, das kann man ja über Google oder wie auch immer, sich mal runterladen. Man kann das bei Jachibiti überall, kann man das in den Einstellungen schon vorgeben, dass er nicht immer nur einen nach dem Mund redet, dass er immer auch prüft, ob es mehrere Quellen zu einer Aussage gibt. Und diese Quelle auch ganz konkret anschaut, weil häufig ist es so, dass sich die KI auf Quellenbezitzung gar nicht gibt. Oder die gar nicht das Aussagen, was sie zu Aussagen vorgeben.

01:14:28: Speaker 2 Da ist es ganz entscheidend, wenn es um kritische Aufgaben geht, dass, wenn eine Aussage gemacht wird, dass immer die Quellen auch mit genannt werden, dafür sind natürlich dann andere KI's noch besser. Also wenn ich jetzt an Perplexity denke, an Elisid denke, also KI ist die extra zu... Ja, spezialisiert sind, zweifelstfreie Information auch zu distillieren. Da ist vielleicht die generellen LLMs sind da vielleicht nicht unbedingt die besten, wenn man sie nicht entsprechend trainiert hat.

01:15:00: Speaker 1 Ja, was ich auch noch ganz spannend finde, im Grunde genommen, das habe ich auch vorhin schon mal gesagt, weil man natürlich durch diese Unterhaltung mit KI auch durch dieses Sparing irgendwie Dopamin-Loops verstärkt. Also im Grunde genommen ähnlich zu Social Media. Wie genau funktioniert das? In welchen Momenten kannst du das einmal kurz beschreiben und wieso zu sagen, auch wir da das besser managen können, dass so das Thema schnelle Belohnung durch diese...

01:15:30: Speaker 1 Instant Gratification im Grunde genommen durch diese schnellen Antworten einfach auftreten.

01:15:35: Speaker 2 Ja, das ist tatsächlich ein Problem, was KI ist, tatsächlich manchmal wie Alkohol.

01:15:39: Speaker 2 Es gibt auch einen Kick, weil ich kenne das auch. Ich gebe was ein, ich recherchiere und der lobt mich und dann sage ich, es klappt und er freut sich richtig mit. Und das ist ja auch positiv.

01:15:49: Speaker 1 Jetzt hast du toll formuliert.

01:15:51: Speaker 2 Es gibt natürlich auch in den Voranstellungen von mittlerweile kann man das dämpfen. Man kann sagen, wie du antworten sollst. Und wenn jemand sehr kritische Aufgaben häufig macht, dann würde ich das als Voranstellung machen. Also stimme mir nicht notwendigerweise zu, sondern gibt mir immer zwei, drei Dinge, die vielleicht anders sein können.

01:16:12: Speaker 2 Es geht nicht darum, mich zu kritisieren oder negativ zu sein, sondern es geht einfach darum, dass das noch mal zu kritisch sind, da fragen. Was, wie könnte es anders sein?

01:16:23: Speaker 2 Ich glaube, darum geht es. Oder wenn du ein Ergebnis dann fertig hast, danach nochmal zu recherchieren zu lassen, nennen wir drei Punkte, die anders sein könnten. Also das mache ich auch im Prinzip, wenn ich eine Recherche habe, das nochmal checken lassen. Aber meistens mache ich schon in den Pump mit rein, dass ich sage, er soll angucken und auch unter Umständen eine Sektion in einer tiefen Recherche haben, die widersprüchlich ist, die Kritik hat, die Fragen stellt, ob das ist, was ich da bekomme, legitimiert ist. Ich glaube aber insgesamt, dass es nur eine vorübergehende Zeit ist. Das ist jetzt noch die Phase, wo es trotzdem noch relativ alles neu ist. Das werden wir das gar nicht mehr brauchen. Da sind wir auf der dritten und vierten Ebene, wo wir dann Agenten des automatischen Hintergrund machen und wir gar nicht mehr so tief in diese Sachen reingehen müssen. Das ist eine Phase, wir hätten auch gar nicht die Zeit, das alles zu überprüfen. Und da ist auch eine Gefahr, wir sind dann immer mehr abhängig, dass die das auch richtig tun.

01:17:24: Speaker 1 Genau. Ja, genau. Und das finde ich immer so ein bisschen beängstigend, muss ich sagen, weil ich auch natürlich arbeite ich sehr viel mit KI mittlerweile und egal, ob es um Ideen gibt, egal, ob es auch um zum Beispiel eine Themen-Sammlung gibt, geht ja für gewisse Podcast-Episoden. Und da sieht man auch ganz klar, ich sag mal, Schwächen so von der KI, also das Thema Originalität. Wie möchte ich ein Thema anschauen, wenn du der KI sagst, machst originell oder ich will irgendwie Punkte diskutieren, die vielleicht noch nicht so offensichtlich sind oder noch nicht so viel diskutiert wurden? Das schafft er eigentlich nicht. Das muss ich selber machen. Und das ist auch interessant zu sehen, wo sind die Shortcomings. Aber trotzdem habe ich oft das Gefühl,

01:18:10: Speaker 1 dass oder ich habe die Angst, dass ich irgendwelche Kompetenzen verliere, Sachen zu formulieren, zum Beispiel Texte zu schreiben. Und mir persönlich tut es total gut, wenn ich zwischendurch Dinge ganz ohne KI formuliere, einfach nur, um dieses Selbstbewusstsein, diese Selbstwirksamkeit in der Tätigkeit im Schreiben irgendwie zu spüren, ob es jetzt irgendwie bei LinkedIn Post ist oder irgendwas anderes Wichtiges formulieren, eine E-Mail. Das tut mir gut, muss ich sagen, dass ich das abwechsel.

01:18:38: Speaker 2 Absolut wichtig für das Gefühl der Selbstwirksamkeit und vor allen Dingen auch das Unperfekte aushalten zu können, weil KI das halt perfekt macht. Und natürlich gibt es wieder dann Wege, dass wir sagen, dann mach's unperfekt, liebe KI. Und es geht ja soweit. Ich kann der KI ja so formulieren wie ich formuliere. Also so unperfekt mit Zwischenpausen, mit mal, na, wie siehst du das, unvorständigen Sätzen und das kann KI auch imitieren und es wird immer besser. Also es gibt ja Prognosen von KI-Forscher, die sagen, wir werden die KI irgendwann gar nicht mehr im Detail instruieren müssen, die wird wissen, wie sie das macht. Indem sich all unsere Sachen trakt, also wenn ich alleine, wenn die KI jetzt all meine, mein E-Mail-Verkehr durchforsten würde, mein Briefverkehr, alles das, was ich online irgendwie von mir gebe, dann weiß die meine Kompetenz, die weiß, wie ich mich artikuliere. Wenn ich dann auch anfange mit Gadgets hier mich aufzunehmen, wie ich hier zum Beispiel habe und weiß, wie ich kommuniziere meine Telefon, also dann, dann ist es betrachtlich auf der einen Seite für manche, für manche ist es wow, das will ich haben. Das sind ja auch die Länder sehr unterschiedlich, gibt ja auch schöne Grafiken, wie das Excitement versus die Angst in verschiedenen Ländern bezüglich KI. Das heißt KI wird wissen, wie ich ticke und kann sich so formulieren, wie ich will. Und die Frage ist, wollen wir das? Und viele sagen natürlich dann nein, ich will selber formulieren können, aber manche ist das natürlich ein Riesenvorteil, wenn sie nicht immer jedes kleinste Detail in die KI eingeben müssen. Also das ist eine spannende Situation und ich habe da auch keine abschließende Antwort, aber ich würde auch für mich und das mache ich meistens morgens, ich lese mein Buch, ich schreibe meine Sachen zusammen, was unperfekt ist. Aber du spürst eben noch dann das Echte und ich glaube, das wollen die Leute meistens mehr, das Unvollkommen, das Nahbare, das Verletzbare, als jetzt so eine perfekte KI-Antworte.

01:20:38: Speaker 1 Ja, und da muss man wahrscheinlich auch auf seinen eigenen Leben, auf seinen eigenen Beruf mal fauen und entscheiden, wo ist das wichtig für mich, dass da viel mehr von mir drin ist. Und ich wirklich mit originalen Ideen aus meinem Kopf von mir komme und auch formuliere und Wörternutze, die nur ich jetzt so gewählt habe und welche Aufgaben kann ich aber ruhig mit KI zum Beispiel lösen. Und ich glaube, das ist vielleicht eine gute Strukturvorgabe zu sagen, es gibt Stunden am Tag, da mache ich diese Art von Aufgaben und die mache ich analog mit Stift und Papier und es gibt andere Stunden am Tag, da ist die KI offen und hilft mir und das ist mein Spareringspartner. Das glaube ich ist eine gute Regel. Ich habe dann noch nicht so eine feste Regel, aber ich glaube, das kopiere ich jetzt mal von dir, Aurel.

01:21:25: Speaker 2 Das ist das eine und ich glaube das andere, also wo ich ein bisschen düster male, man kann das düster sehen, man will, es ist jetzt schon KI-Content nimmt ja rasant exponentiell zu und hat auch viel größere Aufrufzahlen als originäre Content und ist auch viel schneller. Na irgendwann, ich sehe schon, es gibt schon YouTube Tutorials, wo nur noch der Avatar spricht, aber der spricht so, als wäre das eine echte Person und es ist trotzdem gut und ich folge den zum Teil manchmal besser, weil er einfach klarer spricht. So, ich glaube, es wird eine Trennung geben zwischen KI-Content, der einfach ist, der wenig Fehler macht, der schnell konsumierbar ist, der auch Spaß macht und originell ist. Und dann gibt es die echten Verbindungen und das sehen wir gerade in vielen Communities, was momentan auch eine andere Bewegung ist, wo sich Menschen wieder verbinden, wo die sich in echt treffen, wo die sich in echt austauschen und ich glaube, diese Zweitahlung wird noch größer sein. Es wird diesen großen Content da draußen geben, der relativ KI gesteuert ist und perfekt ist und man Millionen von KI-Pieces in einer kurzen Zeit raushauen kann für Geschäftsprozesse. Und auf der anderen Seite gibt es immer noch die echte Verbindungen, die echten Treffen, wo sich Menschen unperfekt austauschen. Ich glaube, das ist so, was ich sehe.

01:22:41: Speaker 1 Ja, eine Sache, auf die ich nochmal ganz kurz zurückkommen möchte, die du vorhin genannt hast, dieses, dass die Experten sagen, die KI musst du irgendwann gar nicht mehr prompten, weil du gibst der lediglich Zugang zu deiner E-Mail in Box beispielsweise oder deinen Sprachaufnahmen, deinen Podcast und die wird komplett wissen, wie du tigst und wer du bist und wie du sprechen möchtest und was deine Aussagen sind und was deine Kernbotschaften auch sind. Ja, nach außen und welche Sprache du verwendest und das finde ich tatsächlich, das ist sehr, sehr kritisch, weil dann verschwindet ja wirklich die Grenze zwischen mir und der KI. Ja, also meine Identität, die schlüpft sozusagen auch über eine KI und wird imitiert und dann habe ich das Gefühl, verstärkt sich eben nochmal der Darn-and-Cruge-Effekt. Ja, dann verstärkt sich dieses Ganze. Ich bin in so einem kognitiven Ball drin, weil ich ja eigentlich mit mir selber rede und wir wissen, wozu das führt, wenn man immer nur mit sich selber spricht. Das ist erstens nicht so wirklich gut, glaube ich, für die Psychi, wahrscheinlich.

01:23:43: Speaker 1 Und für unsere soziale Systeme, glaube ich, ist das wirklich ganz schrecklich, ehrlich gesagt.

01:23:49: Speaker 1 ich würde mich, also durchaus wohl erfüllen, wenn ich weiß, die KI ist einfach, steht für sich, die ist getrennt, die ist maximal intelligent, kann mir bei allem helfen, aber die versucht nicht, mich zu imitieren. Und die hat auch nicht unkontrolliert Zugang zu allem sozusagen, weil gerade dann fängt es ja an, ich sage mal auch, scary zu werden, manipulativ vielleicht zu werden, dann vermischt sich halt so dieses oder verschiebt sich vielleicht auch so ein Machtverhältnis. Dann bin ich vielleicht irgendwann nicht mehr der Chef, sondern die KI. Ja, wo, wo trennt man das dann? Und ich finde, das ist natürlich auch maximal emotional das Thema. Es gibt ja zum Beispiel jetzt so KI-generierte Werbungen da draußen von großen Industrie, Firmen und Playern. Und da haben die Menschen ganz klar gesagt, das finden wir schrecklich. Das wollen wir nicht, ja. Das soll irgendwie was Emotionales rüberbringen. Aber dadurch, dass KI generiert ist, kommt das nicht an. Wir finden das schrecklich. Die haben das wieder vor Markt genommen. Also diese Arrogerie zählt jetzt nicht mehr. Und das fand ich extrem interessant, weil das Feedback vom Markt ist extrem negativ. Also da gab es einen Pushback, weil die gesagt haben, hier ist es nicht gut eingesetzt. Das gefällt uns nicht.

01:24:56: Speaker 2 Ja, also ich glaube auch das ist nur eine vorübergehende Sache. Ich habe schon KI-Kontingen gesehen, der war sehr gut. Klar.

01:25:03: Speaker 2 Echte Personen, echte Gefühle, unperfekt ist immer noch immer noch was wir sehen wollen. Aber es ist halt auch ein anderer Trend und wir dürfen auch andere Länder nicht außer Acht lassen. Die Chinesen zum Beispiel, die sind enorm enttusiastisch, was KI betrifft. Die interessiert so was nicht.

01:25:20: Speaker 2 Authentisch, nicht authentisch. Ja, wir in Deutschland sind nur noch ein bisschen anders. Es gibt andere europäische Länder, die sehen das auch so. Aber der Großteil der Welt sieht es nicht so. Und die werden das auch so weiter weiter vollziehen. Ich glaube, es gibt zwei wichtige Gegendgifte, wenn man so will.

01:25:35: Speaker 2 Das eine ist Bildung.

01:25:36: Speaker 2 Also es gibt nichts Wichtigeres als Bildung. Lesen, lesen, lesen, lesen und damit arbeiten. Es, du kannst heute ins Gedächtnis in die Gedankenwelt von so vielen großen Gehirnen eintauchen, indem du liest. Also ich versuch das jeden oder ich versuch das morgens eine Stunde mindestens einzubauen. Das ist das eine, was man mitbekommen kann. Das andere ist einfach Erleben. Also je mehr ich unterwegs bin, auch in anderen Ländern, andere Menschen kennenlerne. Um so besser habe ich die Möglichkeit, das zu differenzieren, was vielleicht mir diese KE-Welt vorgaukelt. Und es zeigen auch die Studien. Gerade Jüngere, die wenig Erfahrung haben, wenig Bildung haben, sind sehr viel einfacher, in diese kognitive Schuld einzugehen oder die KE eben schlecht nutzen. Und schlechtere Outputs haben, weil sie sie gar nicht hinterfragen können. Sie haben diesen Dunning Crew. Sie wissen gar nicht, was sie nicht wissen. Und dann habe ich auch keine Möglichkeit, das zu differenzieren. Ja, und ich glaube, so wird sich das auch leider trennen, dass die Menschen, die schon sehr viel Weisheit haben, die sehr viel wissen, die werden extrem sinnvoll und gut einsetzen können. Und viele Menschen, die das halt nicht haben, werden das nicht.

01:26:48: Speaker 1 Ja, das ist ein super wichtiger Punkt. Also Bildung ist das eine und Erfahrung. Also im echten Leben Wommeln ist das andere. Reisen oder auch verschiedene Arbeitskontexte. Und was ich aber auch so schwierig finde, gerade KI gilt ja auch als wichtiges Tool zum Beispiel zum Lernen im Bereich Bildung. Wie können wir denn da sicherstellen, dass die Schüler, die noch lernen,

01:27:15: Speaker 1 die KI auch in einer Weise nutzen, wie zum Beispiel dein Sohn auf eine Weise, dass ihn wirklich beim Lernen hilft und bei der Weiterentwicklung seines eigenen Gehirns und auch da nicht so die Faulheit kommt. Weil es ist ja sehr einfach, KI einfach zu sagen, schreibt mir bitte genau diesen Aufsatz.

01:27:30: Speaker 2 Oder löst mir dieses Problem, der hat mir dann irgendwie so einen Riesenformel-Bedingst gezeigt. Aber er hat es erst, wir haben ein bisschen zum Bayern-Gespiel gefahren nach Rünchen gegen Wolfsburg, 8 zu 1 übrigens war er Wahnsinnspiel. Und im Zug hat er seine Aufgaben gelöst, aber es sind Riesenformeln, aber er hat einfach nicht gesagt, mach mal, sondern er hat gesagt, so löse ich das. Und hat dann, der Jaminer hat den dann gesagt, ja, du bist schon auf dem richtigen Weg, aber da fehlt noch was, dann hat er weitergeknobelt. Das heißt, er hat es immer wieder als Barring verwendet, den ihm nicht das vorgegeben gekaut hat, sondern der ihn gechallengt hat, ob er, wie weit er denn schon auf dem richtigen Weg ist. Und ich glaube, das dauert natürlich ein bisschen länger, als jetzt gibt mir mal die Aufgabe,

01:28:12: Speaker 2 aber das bringt ihm ja nichts. Wenn er jetzt Klaus Duhren schreibt, muss er es ja trotzdem selber verstehen. Und ich glaube, dieses Barring, und dann lernst du auch was. Ich habe zum Beispiel das Codeirn

01:28:21: Speaker 2 von Apps, ich habe keine Ahnung von Codeirn, aber indem ich das mit der App, mit Cloud Code zum Beispiel gemacht habe, sehe ich, der Code ist verdammt zuständig. Ah, und diese Struktur und das, das ist die API.

01:28:36: Speaker 2 Und das dauert natürlich, aber so nach und nach bekomme ich ein besseres Verständnis für diese Details. Und so funktioniert eben Lernen, dass ich immer wieder einen kleinen Teil dazu bekomme und dann ein größeres Bild entwickelt, als wenn ich passiv mit das Ergebnis geben lasse und es nicht mehr hinterfrage.

01:28:55: Speaker 1 Ja, und ich sehe jetzt zum Beispiel mich als Mutter oder generell Eltern extrem stark in der Rolle, dass man das eigentlich so mediieren muss zwischen KI, also wie nutze ich KI, wie bringe ich meinen Kindern auch die Nutzung von KI bei, weil ich finde, das erfordert natürlich eine enorme Selbstdisziplin, die genau so zu nutzen. Weil viel einfacher ist der Weg, der direkte Weg zur Lösung. Anstatt zu sagen, ich habe jetzt die Muße und lerne gemeinsam mit der KI und frage sie nicht direkt nach der Antwort. Das finde ich sehr interessant. Müsst es dann nicht, ich sage mal auch so Parental Controls geben, genau einen Chatfenster freizugeben, der den Prompt hat, du darfst meinem Kind nie direkt die Lösung geben, sondern du darfst ihm helfen, da heranzukommen und Tipps zu geben. Also, das finde ich, also ich weiß nicht, ob man das von den jungen Menschen so verlangen kann, ja, gerade wenn es irgendwie so wichtig ist, dass es einem gesagt wurde. Wir sind weit davon entfernt, dass Prompting einer KI Teil eines Schukorikolums ist, besonders in Deutschland und das finde ich halt extrem kritisch. Ja, haben wir dann nicht eine andere verlorene Generation, ja, wie jetzt irgendwie ganz viele Kinder, die einfach in den Tiefen von Social Media irgendwie verschwunden sind, ja, ganz viele Stunden ihres Lebens in einer sehr kritischen Persönlichkeitsbildenden Zeit. Wie siehst du das?

01:30:16: Speaker 2 Ja, das ist ja schon wieder auch das Thema Social Media verbotet. Das könnte man in anderen Podcasts machen, weil das ist auch sehr spannend, weil gerade Australien und denen mag das verbieten wollen, da halte ich nichts davon, aber das ist nur am Rande.

01:30:28: Speaker 2 Parental Control mit KI, da würde ich mal die provozierende Frage stellen, wie viele Eltern können das dann tatsächlich kontrollieren?

01:30:36: Speaker 2 aus meiner Erfahrung

01:30:38: Speaker 2 wenige, es ist eher umgekehrt, dass die Eltern ihre Kinder fragen, wie das mit der KI denn eigentlich so genau funktioniert. Es mag Ausnahmen geben und ich lasse mich auch sehr gerne vom Gegenteil überzeugen, aber in meiner Erfahrung

01:30:50: Speaker 2 das dann halt pauschal verboten. Aber wenn

01:30:54: Speaker 2 du dich nicht selber mit der Sache beschäftigst, ist es sehr, sehr schwierig. Man kann es vielleicht in der Schule lernen, ich bin ja kein Experte, wie KI in den Schulen gelehrt wird. Ich hoffe, dass es gut gemacht wird, dass man ihnen auch die Basic Prompt oder Prompting nahe bringt und worauf 8 zu 8 ist. Aber ja, es müsste im Prinzip, also wäre ich jetzt Bildungsminister,

01:31:13: Speaker 2 aber es gibt ja nur auf Länderebene, wäre KI Kompetenz ein Pflichtfach, also nicht, ich weiß nicht, ob das Pflichtfächer schon sind, aber diese Entwicklung ist so revolutionär und ich glaube, sie wird trotz allem, obwohl der Hybrisig ist und die Gelderiesse sind immer noch unterschätzt, was das für unser Leben für eine Auswirkung haben wird,

01:31:36: Speaker 2 dass das neben Deutsch, Mathe und Englisch ein Pflichtfach sein muss, Hauptfach sein muss, weil es so interdisziplinär ist, weil es so viel beeinflussen kann und auch solche Riesen, Unterschiede verursacht, wenn jemand gut damit umgehen kann, was ihm das im Lernen hilft, versus wenn jemand das nicht gut kann.

01:31:56: Speaker 2 Ich bin mir sicher, andere Länder machen das schon.

01:31:58: Speaker 1 Ja, ich finde es total wichtig und gut, dass du das sagst, es sollte eigentlich ein Hauptfach werden, weil es ist eine absolute Grunkompetenz neben Sprache. Kann ich besser kommunizieren, kann ich natürlich auch in vielen anderen Fachbereichen viel besser sein, verstehen, erklären. Und das ist bei der KI, finde ich, vergleichbar vor allen Dingen, weil sich das weiterentwickeln wird. Und das geht nicht mehr weg.

01:32:22: Speaker 2 sage es auch immer, es gibt so die drei Reaktionen auf KI, das ist dann so angelehnt an den Grizzly-Bärsten-Urzeit, es gibt die, die kämpfen, die sagen, das ist KI-Tekst, das kann ich ja erkennen oder immer nur diese KI-Müll, das sind so die Kämpfer. Dann gibt es so, oh, das KI nimmt bei meinem Job weg und so weiter sind dann die Flüchte. Und dann sieht auch, das geht irgendwann vorbei, das sind so die Astarra, die glauben, dass das vorbei, nee, das wird nicht vorbei gehen.

01:32:48: Speaker 1 Ja, eine Sache, die ich beim Thema KI-Nutzung bei mir persönlich merke, ist, dass man kommt immer so von Höchstchen auf Stöckstchen, also ich fange mit einer Frage an, dann gibt ja mir auch gleich drei weitere Schritte, Vorschläge, wie ich sozusagen weitermachen kann. Und dann denke ich mir, ja, alle drei sind super, mach alles drei, und dann kriege ich das und das und das und dann komme ich innerhalb von wenigen Sekunden auf einen Riesen-Output, der im Grunde genommen jetzt mehrere Stunden Arbeit für mich impliziert, um alles umzusetzen, was alles tolle Ideen sind, aber mir geht dabei halt häufig das Thema Priorisierung abhanden und vor allen Dingen kommt mir auch das Thema Fokus, Konzentration abhanden. Und ich frage mich immer so, ich persönlich bin jetzt kein ADHS-Kandidat, aber ich glaube, dass mittlerweile viele Menschen unter diesen Symptomen zumindest irgendwie leiden, verschlimmert die Nutzung von KI dann nicht auch die ADHS-Symptomatik, weil du halt ständig von dem einen zum anderen Thema hüpft und irgendwie nie lange bis zum Ende sozusagen eine Sache durchdenkst.

01:33:53: Speaker 2 Das ist so der moderne Zyganic-Effekt, wie ich ihn nenne.

01:33:57: Speaker 2 Zyganic ist ja, glaube ich, den 20er-Anathie hat ja entdeckt, dass so unterbrochene Aufgaben besser erinnert werden als vollendete. Also wenn wir in der Schleife offen lassen, dann haben wir dieses Gefühl, ich muss sie irgendwann schließen und durch KI exponentiert sich das und da haben wir ganz viele offene Schleifen und das stresst uns enorm. Und ja, das kann Menschen, die eine Neigung haben, sowieso viel zu explorieren und viel aufzumachen, noch schlimmer werden. Und das ist auch ein Problem, was KI schafft und deswegen ist es da absolut notwendig. Man muss nicht unbedingt weniger Aufgaben machen, man muss nur die Aufgaben schließen. Das heißt, da ist ein bisschen Planung notwendig, ich mache auch, ich sage, für diesen Arbeitsblock will ich das erledigt haben. Wenn das erledigt ist, ist diese Aufgabe fertig. Das heißt, ich brauche so ein Clojure-Signal in meinem Kopf, das ist jetzt erledigt und dass ich die Aufgaben auch in kleinere Sachen unterteile. Weil dadurch, dass es so viele Möglichkeiten gibt, will ich, habe ich immer eine neue Aufgabe, immer eine neue Aufgabe. Da ist die Selbstdisziplin, das ist die Teilaufgabe, die ist erledigt. Ich freue mich, ich gehe mal raus und dann mache ich erst die nächste Aufgabe. Oder ich plane auch die Dinge voraus, was ich alles machen muss. Das ist auch im Kopf weg, dass ich sage, die drei Aufgaben sind noch offen und dann mache ich einen Haken daran. Das ist wie beim Ticket-System in der IT.

01:35:21: Speaker 2 Jeder Aufgabe, die ich lösen will, ist ein kleiner Tickmark und dann habe ich das erledigt. Dass es nicht irgendwann unendlich wird und ich nie das Gefühl habe, ich bin mal fertig.

01:35:34: Speaker 1 Genau das ist der Punkt. Der Zeiganegeffekt, finde ich total spannend, kannte ich auch vorher gar nicht, immer diese offenen Tabs zu haben. Dann hat man das Gefühl, man hat am Ende des Tages noch ganz viel Dreck nicht rausgekehrt und muss dann am nächsten Morgen, kann man nicht frisch starten, sondern es ist noch belegt. Ganz viel Prozessierungspower ist noch nicht verfügbar für andere Sachen und das stört mich schon extrem. Das heißt, du schließt dann auch einfach diese Chats oder was ist denn dein...

01:36:07: Speaker 2 Also ich mache jetzt gerade ein Projekt, wo ich so eine Art Arbeitsdashboard habe. Also da sind meine täglichen Aufgaben, da ist mein Kalender, das sind meine Projekte, da trage ich so die wichtigsten Dinge, die ich mache. Und da kann ich noch die Idee haben, da könnte ich ja noch meine E-Mails noch mit rein bauen. Ach, da könnte ich ja noch das und jenes machen. Aber ich habe dann auch diese Aufgaben in kleinere Mikroaufgaben. Das heißt, heute ist nur dran, wie kann ich mein Kalender an dieses Dashboard anschließen? Punkt, das reicht. Wenn das erledigt ist, ist diese Aufgabe erledigt. Jetzt können die nächste Aufgabe kommen. Naja, dann zeigen wir doch die Termine an, die sie unter Umständen kollidieren könnten mit irgendwas anderem. Aber das ist ja wieder eine eigene Aufgabe. Das heißt, die Disziplin lautet hier, diese Aufgaben in Mikroaufgaben zu definieren. Und dahin, dass sie sich auch einen Haken zu machen. Das kann in der Schriftlich sein, dass ich eine Liste habe, das ist erledigt. Dann kann ich am Ende des Tages sehen, ich habe jetzt zehn Aufgaben erledigt. Und jetzt kommt erst die nächste, statt von einem zum nächsten zu kommen. Sondern das erst mal abzuschließen. Das ist letztlich ein entscheidender. Und da gibt es auch genug Studien, Goldilocksstudie, Goldilocksstudie oder Dinge halt abzuschließen, Mikrocompletions und solche Dinge.

01:37:26: Speaker 1 war das Ergebnis?

01:37:28: Speaker 2 Nein, der Goldilocks ist so ein bisschen die Zusammenarbeit bei kreativen Aufgaben. Also, dass man wirklich Co-Creation macht. Das heißt, ich gebe Input, du fragst mich, so dass es so ein Hin- und Herspiel gibt. Da gab es eine Studie letztes Jahr,

01:37:44: Speaker 2 dass wir die unseren Anzahl an dem Prozess auch erhöhen. Also, dass wir nicht passiv einfach alles aufnehmen und dann tausend Schleifen haben, sondern dass wir sagen, nee, ich möchte es aber so haben und so haben. Das erfordert Disziplin, das würde ich nicht im Kopf lassen, das würde ich aufschreiben. Was möchte ich heute erreichen? Ich habe zum Beispiel drei Aufgaben, die ich am Amtag erreichen will. Nur drei, nicht mehr drei. Die wichtigsten Aufgaben, die mich jetzt weiterbringen, wenn die erledigt sind, wunderbar. Dann kann ich noch mehr dazukommen. Aber die meisten machen sich dann eine Tudulisse von 20 Sachen, wo sie so wissen, dass sie am Tag nur zwei oder drei schaffen.

01:38:26: Speaker 2 Dashboards sind drei Aufgaben drin. Drei. So.

01:38:30: Speaker 2 Und das reicht.

01:38:33: Speaker 2 Und ich habe auch, das ist auch so ein bisschen Veränderung von den Jahren zuvor, habe ich auch immer sehr viele Sachen angefangen. Ich habe gesagt, ich mache eine Aufgabe und ich versuche die dann wirklich zu einem wichtigen Abschluss zu bringen. Also, das ist das Gefühl habe, nee, jetzt habe ich auch mal so weit, dass ich jetzt weitermachen kann und nicht jeden Tag so ein bisschen an fünf verschiedenen Sachen zu arbeiten, sondern wirklich Fokus auf eine Aufgabe, bis ich die zu einem für mich definierten Schluss bringe. Und dann kommt erst wieder was anderes dran.

01:39:03: Speaker 2 Also das hilft mir, wenn ich so viele Aufgaben habe, weil sonst hast du es Problem oder gibt es auch, dass du in einem Jahr, stürzendes Jahr rum ist und du hast an allem so ein bisschen gearbeitet, aber du hast nichts wirklich zu Ende gebracht.

01:39:15: Speaker 1 Ja, also da kann man jeden, der auch nicht ADHS-Kandidaten, Kandidatinnen auf jeden Fall zu ermutigen, sich da ein, vielleicht auch ein Time Tracker oder so System auch einzurichten, um auch, ich sag mal, diese, diese, ja, Systeme zu haben und zu sagen, jetzt raus aus diesem KI-Rabbit-Hole, ja, damit hast du jetzt extrem viel Zeit verbracht, ist die Aufgabe erledigt oder nicht, weil man vergisst halt einfach das Ziel, auch wenn man zwischendurch einfach mal da drin sich verliert. Und ich glaube, das ist extrem wichtig.

01:39:46: Speaker 2 Time-Chunking, Time-Boxing, ja.

01:39:49: Speaker 1 Das ist die nächste Trap neben Social Media. Und ich glaube, gerade im beruflichen Kontext, wo es ja legitim ist, das Spatch-Aptiv-Fans oder das Gemini oder das Cloud-Fans offen zu haben, ist einfach so ein Problem. Ich glaube, da kann man auch generell auf die Welt der Entwickler schauen, weil die darin, die arbeiten ja schon viel länger mit KI-Systemen und sind da, glaube ich, schon viel besser darin, ihren Fokus irgendwie zu halten auf einer Aufgabe. Ich glaube, das ist wirklich eine Herausforderung unserer Zeit. Und da die Neurobiologie, die dahinter steckt, weiter zu verstehen, ist, glaube ich, extrem relevant. Deswegen danke ich Diorrell für diese super spannenden Insights heute wieder.

01:40:26: Speaker 2 Gerne.

01:40:26: Speaker 1 Ich glaube, es ist sehr deutlich geworden, dass wir da mit sehr viel Reflexion und Disziplin ran gehen müssen an das Thema KI. Hast du noch irgendeinen heißen Tipp für die Hörerinnen und Hörer, den sie mitnehmen können? Ja, auf jeden Fall zukunftsfähig mit KI Hand in Hand, aber ohne die eigene Gehirnkraft sozusagen zu verlieren, zu nutzen.

01:40:49: Speaker 2 Ja, also ich glaube, Bottom Line AI ist nicht schlecht, ist logisch. Es geht um die bewusste Nutzung, die mehr sein soll als die unbewusste Nutzung. Also das Gehirn hat nicht zwischen KI, Google und jedem anderen Tool, letztlich ist es auch wieder nur ein Tool, sondern es geht immer nutzig dieses Tool, um mich selbst zu verstärken, um meine Kognition zu verstärken, oder gebe ich einfach die Aufgaben komplett ab. Immer wenn ich mir diese frage, ich gebe es gerade komplett ab, da ist eine Gefahr drin. Wenn ich in dem Prozess drin bin, dann bist du sehr wahrscheinlich auf einem besseren Weg. Also nutz KI wie ein super Gehilfen, aber nicht wie dein Boss.

01:41:28: Speaker 1 Ja, das kann man sich gut merken, finde ich, und das trifft

01:41:32: Speaker 1 Vielen Dank dir, Aurel, das war super spannend. Gerne.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.