DiaLogo - der Logopädiepodcast

Mira Lorenzen-Fischer, Katharina Fulle und Maren Wallbaum

KI in der Diagnostik von Kindersprache – Ethische Rahmenbedingungen (Folge 12 – K.I.-Episode 1/3)

Zu Gast: Hanna Ehlert

20.05.2025 28 min

Zusammenfassung & Show Notes

Welche Grenzen, insbesondere ethischer Natur, müssen wir beim Einsatz von KI beachten? Was brauchen Logopädinnen und Logopäden an Wissen, um den Einsatz kritisch reflektieren zu können? 

Diese Folge ist der erste Teil von drei Folgen des Themenmonats zur Künstlichen Intelligenz – und dazu haben wir erneut Dr. Hanna Ehlert zu Gast, sie ist wissenschaftliche Mitarbeiterin an der Leibniz Universität Hannover und war bis 2017 Dozentin an der HAWK. 

Wir vertiefen mit ihr die Einblicke in das Themenfeld Künstliche Intelligenz in der Logopädie, und zwar mit dem Schwerpunkt auf der Diagnostik von Kindersprache, unterstützt durch Künstliche Intelligenz.  

Warum der „Themenmonat: Künstliche Intelligenz“?
Künstliche Intelligenz hat das Potential, den Alltag in der Logopädie zu verändern. Es gibt technische Herausforderungen, ethische und rechtliche Aspekte und natürlich stellt sich auch die Frage der Akzeptanz durch sowie der Qualifizierung von Therapeut*innen – kurz: Es besteht ein großer Forschungsbedarf, den wir mit diesen Podcastfolgen ein wenig ausleuchten wollen.   

Shownotes:

Zur LinkedIn-Seite von Hanna Ehlert:  https://www.linkedin.com/in/dr-hanna-ehlert-544429127

Weitere Folgen zur Künstlichen Intelligenz:
Künstliche Intelligenz in der Lehre (Folge 12 – K.I.-Episode 2/3): https://dialogo.letscast.fm/episode/kuenstliche-intelligenz-in-der-lehre-folge-12-k-i-episode-2-3
Generative KI für die logopädische Praxis (Folge 12 – K.I.-Episode 3/3):
https://dialogo.letscast.fm/episode/generative-ki-fuer-die-logopaedische-praxis-folge-12-k-i-episode-3-3


Mehr Informationen zur Künstlichen Intelligenz in der Logopädie auch in Folge 04:
https://dialogo.letscast.fm/episode/kuenstliche-intelligenz-in-der-logopaedie-was-bedeutet-das-folge-04  

Zur Vertiefung:
Ehlert, H. & Lüdtke, U. (2023). Künstliche Intelligenz in der Logopädie. Potential und Herausforderungen am Beispiel einer Automatisierung der Diagnostik im Bereich Kindersprache. Forum Logopädie, 37(6), 6-11.


Du erreichst das DiaLogo-Team per E-Mail: logopaedie.gcg[at]hawk.de
oder über das Feedback-Formular weiter unten. 

Transkript

Intro
00:00:04
Dialogo, der Logopädie-Podcast des Gesundheitscampus Göttingen.
Maren
00:00:11
Herzlich willkommen beim Göttinger Dialogo. Wir sind Mira und Maren und schauen heute auf das Thema künstliche Intelligenz in der Sprachdiagnostik und schauen uns dort insbesondere ethische Rahmenbedingungen im Einsatz in der Sprachdiagnostik an. Die heutige Folge ist Teil unseres Special-Monates Mai, in dem wir uns das Thema Künstliche Intelligenz in drei Folgen näher anschauen. Hört doch dann auch gerne mal in die anderen Themen rein. Für die heutige Folge haben wir erneut Hanna Elath zu Gast. Hanna Elath ist Mitarbeiterin an der Universität Hannover und wir würden einfach mal anfangen. Magst du uns kurz erzählen, wer du bist und was du so machst?
Hanna
00:00:53
Gerne. Schön, dass ich wieder hier sein darf. Ich bin Hanna Ehlert, ich bin Logopädin und ich arbeite an der Leibniz-Universität Hannover als wissenschaftliche Mitarbeiterin in einem interdisziplinären Projekt, in dem wir uns mit dem Thema automatische Sprachverarbeitung und Erkennung von Kindersprache für diagnostische Zwecke befassen. Das heißt, wir entwickeln solche Software, die dann in der Diagnostik von Kindersprache eingesetzt werden kann, sei es mündlich oder auch schriftsprachlich.
Maren
00:01:28
Ja, schön, dass du dir nochmal die Zeit genommen hast. Wir haben ja in der ersten Folge, das ist ja Folge 4, schon über den grundsätzlichen Themenbereich gesprochen, sind aber so ein bisschen beim Thema Ethik hängen geblieben. Da hatten wir dann nicht mehr so viel Zeit für. Deswegen wollten wir da heute noch einmal ein bisschen näher reinschnuppern, insbesondere mit den Möglichkeiten, die KI auch für die Sprachdiagnostik bietet. Wenn euch das Thema Künstliche Intelligenz im Allgemeinen interessiert, dann hört doch auch gerne nochmal in unsere vierte Folge rein. Dort haben wir uns mit den Grundlagen von KI und auch den Möglichkeiten sowie Grenzen für die Logopädie beschäftigt. Wie immer starten wir mit einer etwas provokanter formulierten Einstiegsfrage. Und zwar ist es heute, ist es ethisch vertretbar, dass wir Sprachdiagnostik einer KI überlassen? Was würdest du dazu sagen, Hannah?
Hanna
00:02:22
Nein. Da würde ich ganz klar sagen, nein. Das ist ethisch nicht vertretbar. Es sollte immer ein Mensch an der finalen diagnostischen Entscheidung beteiligt sein. Das ist auch die Aussage von allen Richtlinien, die es bisher gibt zur Nutzung von KI, zum Beispiel den ethischen Richtlinien der WHO, da steht das drin. Und neben diesen rechtlichen Rahmenbedingungen vielleicht, würde ich sagen, wäre es auch einfach eine Einschränkung der diagnostischen Informationsquellen. KI ist ja keine bessere und effizientere Version eines Menschen, sondern menschliche Expertise und KI, die sind komplementär. Das heißt, ich würde da niemals auf das eine verzichten wollen. Deswegen würde ich auch sagen, auf keinen Fall sollte das nur die KI machen.
Maren
00:03:15
Und wie würdest du KI dann einsetzen wollen? Also welche Möglichkeiten haben wir gerade in Bezug auf Diagnostik? Du sprachst schon von logopädischer Expertise, KI dort komplementär einzusetzen.
Hanna
00:03:29
Also, wenn wir jetzt von KI weiterreden in dieser Folge, dann meine ich damit meistens jetzt maschinelles Lernen. Das ist der Hauptanwendungsbereich, denke ich, für die Diagnostik, für die logopädische, die wir haben. Also, maschinelles Lernen kann große Mengen von Daten verarbeiten und automatisch auswerten. Das ist der erste Vorteil, der da drin steckt. Und ganz unterschiedliche Arten von Daten, also Audiodaten, Videodaten, Textdaten, Bilddaten und auswerten heißt im Bezug auf maschinelles Lernen nach Mustern suchen. Das können dann zum Beispiel auch pathologische Muster sein, die uns helfen, in der Diagnostik zu klassifizieren. Und alle diese Datenquellen, die sind ja auch relevant in der medizinischen oder logopädischen Diagnostik von Störungsbildern, die uns betreffen. Also zum Beispiel Audiodaten sind relevant, wenn es um Stimmstörungen geht oder um Dysatrien, aber auch in der Lisediagnostik. Videodaten sind relevant zum Beispiel für Schluckstörungen, ich denke an Videofloroskopie. Textdaten sind relevant, wenn es um Sprachentwicklungsstörungen geht, um Aphasien, also immer dann, wenn wir nach Symptomen im geschriebenen Wort suchen und, um Störungsbilder zu klassifizieren. Bilddaten könnten auch in der medizinischen Diagnostik zum Beispiel bei neurologischen Störungsbildern relevant sein. Das heißt, alles das kann KI automatisch auswerten. Als zweiter Vorteil, großer Vorteil, und das ist auch das, womit wir uns in Hannover beschäftigen, ist, dass maschinelles Lernen in diesem Fall in der Anwendung automatischer Spracherkennung, mündliche Kommunikation verschriften kann automatisch. Das erleichtert uns zum Beispiel oder hoffentlich zukünftig Spontansprachanalysen und nimmt uns da viel Arbeit ab. Und durch diese Möglichkeit, große Mengen an Daten zu verarbeiten, denke ich, wird sich auch der Datenfluss zwischen einzelnen Institutionen, zwischen einzelnen Sektoren verbessern, sodass auch ja endlich das Schnittstellenmanagement, sei es jetzt zwischen stationär und ambulant oder zwischen Kita und Schule, da gibt es ja viele Stellen, wo immer wieder Brüche vorkommen, wo Daten verloren gehen, wo Informationen verloren gehen, dass sich das verbessert. Da habe ich auch große Hoffnungen in der Diagnostik. Das wären so drei Punkte.
Mira
00:06:10
Ja, cool. Wir haben jetzt also schon viele Möglichkeiten und Chancen von dem Einsatz von KI aufgezeigt bekommen von dir. Gibt es denn vielleicht auch, ja, gibt es, haben wir vorhin schon besprochen, Grenzen, insbesondere ethischer Natur? Also du hattest schon gesagt, es wäre schon gut, wenn ein Mensch nochmal mit drauf guckt. Was sind denn die Grenzen in dem Einsatz von Sprachdiagnostik, von KI, die wir aus ethischer Sicht insbesondere berücksichtigen müssen?
Hanna
00:06:36
Ja, es gibt auf jeden Fall Grenzen, Herausforderungen, Risiken ethischer Natur. Die werden auch in der Literatur schon gut benannt. Diese Literatur, die ist hauptsächlich aus dem medizinischen Bereich. Also spezifisch für uns jetzt für die Sprachtherapie oder Logopädie gibt es da noch sehr wenig. Ich greife mal fünf Punkte raus, die häufig in der Literatur genannt werden und verdeutliche, die am Beispiel von Diagnostik. Das erste ist der Datenschutz. Daten, das ist die Währung, mit der bezahlt wird und gehandelt wird, wenn es um KI geht. Das habe ich, glaube ich, in der ersten Folge auch schon so gesagt. Und nichts ist umsonst. Also dessen müssen wir uns auch bewusst sein. Wann immer wir irgendeine KI kostenlos nutzen dürfen, dann können wir uns sicher sein, dass die Daten, die wir da eingeben, auf der anderen Seite eben auch genutzt werden. Zum Training der Modelle zum Beispiel. Das heißt, Wenn wir in unserem Bereich für Diagnostik Daten oder diese Modelle verwenden wollen, dann müssen wir uns informieren, wo kommen denn die Daten her, mit denen diese Modelle trainiert wurden, mit welchen Daten sind die Modelle trainiert, wie können wir Datenschutz in unserer Diagnostik dann auch gewährleisten. Das sind ja ganz sensible Daten, Gesundheitsdaten, die da genutzt werden, wenn es um Diagnostik geht. Also das ist ein ganz wichtiges Thema, alles was mit Daten zusammenhängt. Dafür sind wir, glaube ich, auch schon ganz gut sensibilisiert. Aber das muss natürlich auch nochmal spezifisch dann für unsere Kontexte ausgearbeitet werden. Das nächste ist das Thema Bias, also Verzerrungen, die durch die KI entstehen können. In der Diagnostik zum Beispiel. Die Leistungsfähigkeit dieser Modelle steht und fällt wieder mit den Daten, mit denen sie trainiert wurden. Und wenn diese Daten zum Beispiel nicht alle relevanten Personengruppen enthalten, dann wird das Ergebnis unter Umständen verzerrt sein. Ich denke hier zum Beispiel an mehrsprachige Kinder in der Sprachdiagnostik. Das haben wir bei analogen Testverfahren auch schon. Also auch die sind nicht unbedingt geeignet für mehrsprachige Kinder. Und das ist dasselbe gilt für dann automatische Anwendungen wie KI. Das kann ein Punkt sein. Und alles, was sozusagen an Vorurteilen, an Verzerrungen, an menschlichen Verzerrungen in der Welt existiert, das wird sich auch eins zu eins in KI-Software abbilden. Damit wurden schon zahlreiche Erfahrungen gemacht. Und eher nochmal ist es so, dass solche Wahrnehmungsfehler, sage ich mal, sich dann auch verstärken in der Software. Und die Software kann natürlich auch noch eigene produzieren, wo man dann erstmal mühevoll als Mensch und entwickeln dahinter her suchen muss. Woran liegt das jetzt, dass da solche verrückten Ergebnisse rauskommen? Das ist auch gar nicht unter Umständen so einfach. Das hängt nämlich gleich mit dem nächsten Punkt zusammen, Transparenz. Das hatte ich in der ersten Folge auch schon angesprochen. Diese Anwendungen, gerade wenn es um neuronale Netzwerke oder Deep Learning geht, also sozusagen die neuesten Modelle maschinellen Lernens, die jetzt meistens zum Einsatz kommen in allen Anwendungen, die sind so komplex vom Aufbau her, so vielschichtig, dass eben gar nicht mehr nachvollziehbar ist, wie ein Output zustande gekommen ist. Und das ist natürlich gerade, wenn es um Diagnostik geht, ein Problem. Also wir sind ja immer noch die Menschen, die dann diese Diagnostik auch vertreten müssen, diese Entscheidungen, die da getroffen werden, die Diagnosen, die gestellt werden. Wir sind diejenigen, die unseren PatientInnen vermitteln müssen und erklären müssen. Und wenn wir das gar nicht können, weil wir uns auf Informationen in der Diagnostik auch stützen, die KI geliefert hat, dann ist das hochproblematisch. Und das geht dann auch gleich zu zwei anderen Punkten noch über einmal das Thema Vertrauen. Also das Thema Vertrauen hat so ein bisschen zwei Seiten. Zu viel Vertrauen ist nicht gut und zu wenig Vertrauen ist auch nicht gut. Also das erste vielleicht, ja... Wie skeptisch ist man gegenüber dieser Technologie? Braucht man sich vielleicht dadurch aber auch Möglichkeiten, wenn man das komplett ablehnt und sagt, nee, das ist mir alles zu spooky, das nutze ich nicht? Weil natürlich stecken da wirklich tolle Möglichkeiten drin. Ich bin ja selber in der Forschung daran beteiligt, also ich bin absolut dafür, dass das genutzt wird. Aber zu viel Vertrauen ist auch nicht gut. Wenn wir ans Navi denken, zum Beispiel beim Autofahren, wenn wir immer nur mit dem Navi fahren, irgendwann können wir keine Karte mehr lesen. Und das steht natürlich auch als Gefahr im Raum, wenn wir jetzt an unsere therapeutischen Fähigkeiten denken, zum Beispiel in Bezug auf Diagnostik. Verlieren wir da vielleicht auch irgendetwas, als wenn wir uns zunehmend auf den Output von KI verlassen in der Diagnostik. Können wir irgendwann gar nicht mehr selber bestimmte Symptome diagnostizieren. Und der letzte Punkt sind Fehldiagnosen. Also KI macht Fehler. Wenn wir jetzt eine Fehldiagnose stellen in einer Diagnostik, in der wir auch Informationen von KI inkludiert haben, behaftet dafür. Das ist natürlich ein großer Punkt. Und auch ein Thema, was noch nicht vollständig geklärt ist rechtlich. Wer wird da zur Rechenschaft gezogen? Diejenigen, die die Software entwickelt haben? Diejenigen, die sie vertreiben? Diejenigen, die sie anwenden? Da sind auch viele Fragezeichen.
Maren
00:12:44
Ich finde, das ist ja auch ein riesen Blumenstrauß an Aspekten, die du jetzt genannt hast. So einen Teil, würde ich sagen, können wir natürlich als AnwenderInnen schlecht beeinflussen, zum Beispiel der Anteil von mehrsprachigen Kindern in einer Normierungsstichprobe beispielsweise oder in der Lerngrundlage der KI. Das kann ich natürlich nur beachten und vielleicht mir angucken, ob es da beispielsweise mehrsprachige Kinder drin gibt. Aber manche Dinge kann ich ja auch als AnwenderInnen respektieren und auch vielleicht ganz bewusst anwenden oder auch kritisch diskutieren. Was brauchen wir als Logopädinnen und Logopäden für Wissen oder für Know-how, um mit diesen Hürden umgehen zu können, dass wir tatsächlich doch dann zu einem positiven Einsatz am Ende kommen und nicht in all diese Stolperfallen irgendwie reintapsen?
Hanna
00:13:35
Ach, ich würde sogar sagen, dass wir das beeinflussen können, ob da mehrsprachige Kinder in der Stichprobe drin sind. Wir sollten uns auf jeden Fall an der Entwicklung beteiligen. Wir sollten das nicht den Informatikern und Elektroingenieuren überlassen, diese Software zu entwickeln, sondern da ganz klar unsere Stimme erheben und wenn uns irgendwas unterkommt, was nicht unsere Bedürfnisse erfüllt, dann auch ganz klar Rückmeldung geben und diese Dinge nicht benutzen. Also von daher würde ich sagen, selbst da haben wir Einfluss. Aber wenn ich jetzt solche Software nutze, dann würde ich sagen, brauchen wir auf jeden Fall Wissen zur Funktionsweise und zur Entwicklung. Also wie ist das denn mit dem maschinellen Lernen? Oder zum Beispiel mit der generativen KI-Chat-GPT-Bildgeneratoren, die wir jetzt auch zunehmend nutzen. Stecken ja auch tolle Möglichkeiten drin für die Therapie und Diagnostik. Aber wir sollten schon ein grundlegendes Verständnis davon haben, wie das eigentlich funktioniert, um dann auch eben Grenzen erkennen zu können. Und wir sollten wissen, wie wir mit diesen Computerprogrammen kommunizieren, um auch wirklich gute Ergebnisse zu erhalten. Denn die sprechen eine andere Sprache als wir und die verarbeiten Daten anders als wir, auch wenn das im Umgang zum Beispiel mit Chat-GPT überhaupt nicht den Eindruck macht. Das sieht ja so aus, als ob wir da mit irgendjemandem echten kommunizieren würden. Es ist aber wirklich nur imitiert. Und in anderen Bereichen funktioniert die Datenverarbeitung eben unter Umständen noch viel abweichender von der menschlichen Verarbeitung. Von daher ist hier schon eine Art Übersetzungsleistung notwendig, um da auch mit denen zu kommunizieren. Dann auf jeden Fall brauchen wir Wissen zum Datenschutz, Datenmanagement. Also das ist was, wo wir uns schon noch fortbilden sollten, wenn wir jetzt so viel auch datengetriebene Anwendungen haben und so viel mehr damit umgehen.
Maren
00:15:31
Ich habe gerade zum Datenschutz auch darüber nachgedacht, dass es natürlich auch alles geschützt sein muss, weil alles, was ich in eine KI reinspiele, und wenn es zum Beispiel Audiodaten sind von Therapiekindern, bei denen ich eine Diagnostik durchführen will, das sollte ich ja bloß nicht in eine öffentlich zugängliche KI machen, wie beispielsweise ChatGPT, weil natürlich das so sensible Daten sind, die ich nicht einfach irgendwo rein geben darf, weil das ja einfach weiterverwendet wird. Das heißt, es muss natürlich auch von Seiten von so Systemen natürlich abgesichert sein, dass wir hier allen Richtlinien natürlich gerecht werden, aber dass es vielleicht auch den AnwenderInnen bewusst ist, was damit trotzdem halt verbunden ist, weil wir natürlich nicht irgendwie dahinter schauen können, was da passiert.
Hanna
00:16:15
Absolut. Also das ist schon mal ein ganz basaler Hinweis, keine personenbezogenen Informationen in öffentlich zugängliche, kostenlose KI-Anwendungen reingeben, weil wie gesagt, alles was kostenlos ist, das zieht an der anderen Seite die Daten ab und nutzt die für das Training, für was auch immer. Das ist schon mal ganz wichtig in diesem Punkt Datenschutz und natürlich müssen die Systeme, die für uns entwickelt werden, den dann auch gewährleisten, weil wir da eben mit hochsensiblen Daten arbeiten. Und die rechtlichen Rahmenbedingungen, die sollten wir auch kennen. Also es lohnt sich schon auch ein Blick in dieses EU-KI-Gesetz. Da gibt es auch gute Zusammenfassungen. Da muss man sich nicht irgendwie durch 200 Seiten Paragrafen wälzen oder so. Oder zum Beispiel mal in die WHO-Richtlinien, die ethischen zum Thema Einsatz von KI in der Medizin. Einiges ist auch noch gar nicht geklärt oder noch nicht genügend ausdifferenziert und konkretisiert. Da wird sich auch vieles noch tun. Das ist viel so Läuft viel parallel. Entwicklung dieser Software und das Schaffen der Rahmenbedingungen dafür, dass das sinnvoll und sicher genutzt werden kann.
Mira
00:17:33
Ist dir denn bekannt, dass es für Logopädinnen zu diesem Thema bereits Weiterbildungsmaßnahmen gibt oder liegt das noch in der eigenen Hand- und Google-Recherche von den Logopädinnen aktuell?
Hanna
00:17:44
Also es gibt zunehmend ja auch Veröffentlichungen. Ich habe selber schon ein paar Artikel veröffentlicht. Ich gebe selber auch Fortbildungen zu dem Thema künstliche Intelligenz, Einführung und da wird auf jeden Fall auch die Theorie mitgenommen und nicht nur die Praxis, um da einen emanzipierten Umgang zu ermöglichen. Und ich denke, das wird auch mehr werden. Also es gibt schon so einige Menschen in Deutschland, die sich, wenn man den Bereich noch ein bisschen größer fasst, sagen wir mal Sprachtherapie, Sprachheilpädagogik in diesem Bereich, auch mit dem Thema befassen und da auch Informationen zunehmend bereitstellen. Aber das ist auf jeden Fall noch in den Kinderschuhen.
Maren
00:18:27
Wie können wir denn dann absichern aktuell, dass, wenn es potenziell immer mehr dieser Maßnahmen gibt, wir gehen jetzt mal davon aus, es gibt sozusagen ein Diagnostik-Tool, was Spontansprache von Kindern dann diagnostizieren oder analysieren kann, wie können wir denn dann das Wissen, was uns die KI ausspuckt, einordnen? Also was brauchen wir dafür für Wissen oder für Kompetenzen?
Hanna
00:18:53
Also zum einen brauchen wir dafür unsere menschliche Expertise. Also wir sollten, wir müssen jetzt nicht anfangen, unser Licht unter den Scheffel zu stellen, sondern ganz klar sollte das zusammengeführt werden, die Informationen, die da geliefert werden. Und ich würde auch wieder sagen, zum anderen sind da auch die Entwicklenden von solcher Software in der Pflicht, dass sie den menschlichen Anwendenden es ermöglichen, den Output der Software nachzuvollziehen, zu verifizieren und da auch eben mindestens genauso viel, Und Energien reinstecken in der Entwicklung, diese Mensch-Maschine-Interaktion zu gestalten, wie jetzt, dass da ein vernünftiger Output dann im Ende rauskommt. Also unsere Stärken einfach auch kennen. Ich glaube, das ist auch was, was sich im Umgang mit diesen neuen Computerprogrammen eher schärfen wird. Dass wir eher schärfen werden, was ist eigentlich die menschliche Expertise, auch gerade in der Therapie, in der therapeutischen Diagnostik und später vielleicht auch, wenn solche Anwendungen zunehmend in den Bereich Therapie reingehen. Was ist eigentlich unsere Stärke sozusagen?
Maren
00:20:05
Das heißt, wir müssen ja eigentlich Spontanspruchanalysen trotzdem noch können. Also TherapeutInnen müssen wissen, wie das funktioniert und wie wir alle linguistischen, sprachlichen Ebenen analysieren.
Hanna
00:20:17
Ja, auf jeden Fall. Also ich muss nicht alle Maße mathematisch berechnen können oder wissen, wie die berechnet werden. Das kann dann schon wirklich die Software alleine machen. Aber ich muss ein Verständnis davon haben oder es muss eben von der Software dafür gesorgt werden, dass ein Verständnis dafür besteht, was habe ich da jetzt eigentlich berechnet oder was wurde da berechnet als Software? Wie kann das interpretiert werden? Wie kann das nachvollzogen werden?
Maren
00:20:42
Du hast ja auch schon gesagt, du hast schon diverse Sachen dazu veröffentlicht Und ich weiß ja auch aus erster Hand, dass du auch im Bereich TherapeutInnen schon Umfragen durchgeführt hast, wie denn der aktuelle Ist-Zustand ist. Magst du uns dazu mal einen kleinen Einblick geben, welche Kompetenzen wir vielleicht auch einfach schon haben, die in uns schlummern, die wir vielleicht uns erst mal sichtbar machen können?
Hanna
00:21:03
Ja, also ich habe zum Beispiel eine Umfrage durchgeführt Ende 23, Anfang 24 in Deutschland, der Schweiz, Österreich und Liechtenstein. Da haben knapp 590 LogopädInnen teilgenommen und es ging um dieses Thema, welches Potenzial, welche Risiken seht ihr zum Einsatz von künstlicher Intelligenz in der Logopädie. Da konnte man schon ganz gut zum einen die Perspektive unserer Berufsgruppe oder unserer Berufsgruppen auf diese Technologie rausziehen und zum anderen auch den Wissensstand, der ist da auch ganz deutlich geworden in dieser Umfrage. Also die Potenziale, die gesehen wurden, die haben sich eigentlich gut mit der Literatur gedeckt, was also allgemein in der medizinischen Literatur zum Thema KI gesagt wird. Erhöhung von Effizienz und Objektivität durch Automatisierung, Stärkung der Individualität, auch ein Entgegenwirken dem Fachkräftemangel und Unterstützung der Therapieplanung. Das waren so wesentliche Punkte, die da genannt wurden. Bei den Risiken, da gab es stärkere Abweichungen von der Literatur. Da ist zum einen, finde ich, ganz schön auch deutlich geworden, so eine spezifisch therapeutische Perspektive. Also mit Abstand. Die meisten Bedenken, die geäußert wurden, fast von der Hälfte der Teilnehmenden ging so in diese Richtung, dass der Faktor Mensch verloren gehen könnte in der Therapie und haben also die Wichtigkeit dieses Faktors betont. Und das fand ich total schön. Dann habe ich gedacht, ja, also ihr wisst es eigentlich auch schon. Das hat einen Wert. Und wenn ihr denkt, dass es einen Wert hat, dann verteidigt das auch. Also das war denen ganz klar, was das eine Bedeutung hat. Dann das Thema Datenschutz, das wurde auch angesprochen. Ich glaube, das ist schon gut eben auch in den Medien vertreten, dass wir da sensibilisiert sind. Und dann wurden aber auch so Sorgen geäußert Richtung Verlust von Arbeitsplätzen oder auch Verlust von Fähigkeiten. Das hat man auch an der Umfrage gemerkt. Also das ist auch was, was die Dokus umtreibt. Kann man auch verstehen. Also auch wenn man jetzt historisch denkt, Automatisierung ist immer mit einer Wegrationalisierung von Arbeitsplätzen verbunden gewesen bisher. Sei es jetzt Anfang des 20. Jahrhunderts oder wo auch immer. Von daher ist die Sorge sicherlich nicht unbegründet. Und trotzdem denke ich, dass wir da unsere Position, unseren Wert gerade in der Therapie gut verteidigen können.
Maren
00:23:46
Das stimmt.
Hanna
00:23:47
Und dieses Thema Individualität, das war interessanterweise sowohl bei den Vorteilen als auch bei den Risiken drin. Also die Logos haben, viele haben gedacht, ja, das könnte dieses Thema, könnte die Individualität stärken in der Diagnostik, in der Therapie. Aber es war auch die Sorge, dass es sie vielleicht auch schwächen könnte. Also dass eher so Schema F dann vorherrscht, wenn es alles digital abläuft quasi.
Maren
00:24:14
Spannend.
Hanna
00:24:14
Und den Kenntnisstand oder den mangelnden Kenntnisstand eigentlich auch, den konnte man ganz gut ableiten an den Aspekten, die nicht benannt wurden. Also ich habe ja eben schon darüber geredet, was findet man in der Literatur. Und Dinge, die eben nicht von den Logos benannt wurden, waren dieses Thema Transparenz, das Thema Bias oder auch Haftung. Also da hat man schon gemerkt, das hat unsere Berufsgruppe noch nicht auf dem Schirm. Das ist etwas, mit dem wir uns noch nicht viel beschäftigt haben. Okay. So in der Umfrage.
Maren
00:24:49
Ja, wie auch. Also bisher haben wir immer für das gehaftet, was wir diagnostiziert haben sozusagen, sagen, ohne Hilfsmittel. Und das hat natürlich auch niemand in Frage gestellt grundsätzlich, dass da irgendwer anders irgendwie involviert ist. Und wir sind ja auch immer noch weisungsgebunden. Das kommt ja auch noch mit hinzu im Therapiealltag, dass dann natürlich auch wir einfach weniger Einfluss haben, als es vielleicht in anderen Disziplinen der Fall ist.
Hanna
00:25:16
Ja, absolut.
Mira
00:25:18
Okay, wir kommen schon langsam zum Ende. Wir haben schon ganz viel gesprochen. Ich würde dennoch, wenn ich auf die Zeit gucke, einmal zu unserer abschließenden Frage kommen, die du schon aus der ersten Folge mit uns kennst, wenn du dich erinnerst. Wenn du einen Wunsch zu diesem Thema, also worüber wir gesprochen haben, KI-Einsatz in der Sprachdiagnostik, vor allem unter ethischer Berücksichtigung, wenn du dazu einen Wunsch frei hättest, was wäre das?
Hanna
00:25:46
Mein Wunsch wäre, dass KI sofort in alle Curricula, alle Ausbildungsstätten aufgenommen wird. Also, dass das Thema einfach Ja. In unsere Köpfe reinkommt, egal ob das jetzt akademische oder nicht akademische Ausbildungsstätten sind, ob es darum geht, wie KI im Studium angewendet wird oder eben später dann auch in der Praxis. Ich glaube, wir müssen uns einfach ganz dringend fit machen zu dem Thema, damit wir das komplette Potenzial ausschöpfen können, aber auch damit wir ganz deutlich die Grenzen kennen. Einfach damit wir reflektiert damit umgehen können.
Maren
00:26:22
Ja, das klingt nach einem total spannenden Gedanken und ich glaube auch, dass das dann die einzige Möglichkeit ist, wie wir einfach auch diesen Grenzen gerecht werden können und vielleicht auch die Grenzen dann in Potenziale irgendwie umwandeln können. Ich nehme total viel mit, insbesondere diese fünf Punkte, die du genannt hast, dass wir uns da auf jeden Fall ausreichend informieren, fortbilden und auch dem Ganzen den Rahmen geben, den es verdient und den es auch einfach einnehmen wird in den nächsten Jahren. Wenn euch das Thema Künstliche Intelligenz näher interessiert, dann hört doch auch gerne in die anderen beiden Folgen zum KI-Themenmonat im Mai rein oder besucht den DBL-Kongress vom 23. bis 24. Mai in Bremen. Dort wird es auch unter anderem ein Symposium zum Thema künstliche Intelligenz geben und auch weitere Einblicke in die bereits erwähnte Fragebogenstudie zu den Perspektiven, die in der Sprachtherapie und Logopädie herrschen auf das Thema künstliche Intelligenz. In der nächsten Folge starten wir unseren Praxissommer. Über die Sommermonate gibt es jeden Monat eine etwas andere, noch praxisnahere Folge. Wir freuen uns schon total auf die vertieften Einblicke. Und damit war es das auch schon wieder mit dem Göttinger Dialogo. Vielen Dank fürs Zuhören. Wenn ihr Fragen, Anregungen oder Ähnliches zu dem Thema habt, dann schreibt uns doch gerne eine Mail. Die Kontaktdaten und auch weitere Informationen könnt ihr wie immer in den Shownotes nachlesen. Wir hoffen, dass euch die heutige Folge gefallen hat und ihr beim nächsten Mal auch wieder mit dabei seid. Ob wir uns schon auf die neue Folge und weitere spannende Themen freuen. Na Logo!

Feedback geben

Du hast Fragen, Anmerkungen oder möchtest einfach mal "Danke" sagen? Hier erreichst du uns:  

Mit einem Klick auf "Nachricht absenden" erklärst Du Dich damit einverstanden, dass wir Deine Daten zum Zwecke der Beantwortung Deiner Anfrage verarbeiten dürfen. Die Verarbeitung und der Versand Deiner Anfrage an uns erfolgt über den Server unseres Podcast-Hosters LetsCast.fm. Eine Weitergabe an Dritte findet nicht statt. Hier kannst Du die Datenschutzerklärung & Widerrufshinweise einsehen.

★★★★★

Gefällt Dir die Show?
Bewerte sie jetzt auf Apple Podcasts