Jordi Ascensi ist Telekommunikationsingenieur und Mitglied des Bureau des Künstliche Intelligenz-Komitees des Europarats, das die Nutzung von KI in Europa gesetzlich regelt, sowie Mitglied der Ethikgruppe für künstliche Intelligenz der UNESCO.
Laut Studien, die gestern auf dem interdisziplinären Fachkongress „Herausforderungen der künstlichen Intelligenz: zwischen Emotionen und Algorithmen“ vorgestellt wurden, nutzen 45% der spanischen Jugendlichen ChatGPT als Psychologen.
„Wir können nicht eine so wichtige Sache wie die psychische Gesundheit in die Hände einer Maschine legen“, betonte Jordi Ascensi in seiner Eröffnungsrede.
Was bedeutet das für die Gesellschaft?
Ich habe versucht, die KI zu entmystifizieren: Was ist künstliche Intelligenz, was kann sie tun, und was nicht, und wie ist sie aufgebaut, besonders im Hinblick auf die Menschen, die psychologische oder therapeutische Arbeiten leisten.
Der Hype um künstliche Intelligenz
Ja, es gibt einen Hype darüber, was die künstliche Intelligenz alles leisten kann. Ich möchte das ins richtige Licht rücken, insbesondere in Bezug auf die Risiken und Auswirkungen. Viele dieser Auswirkungen sind positiv; im Fall des Psychologiestudiums können diese Werkzeuge in Praxen eingesetzt werden, um Effizienz und Funktionalität zu steigern und sogar Menschen in der Therapie zu unterstützen. Unterstützen, nicht ersetzen.
Vorurteile in den Daten
Diese Systeme nutzen Daten, die manchmal voreingenommen sind. Sie bestehen aus verschiedenen Komponenten, die auf eine sehr spezifische und konkrete Weise zusammengetragen wurden und nicht die gesamte Realität widerspiegeln. Dies ist besonders relevant für Berufe wie die Psychologie, die einen hohen menschlichen Faktor beinhalten. Ein Mensch beschränkt sich nicht auf die digitalisierten Daten, die wir haben.
Diagnosen durch KI und deren Gefahren
Es wird viel darüber gesprochen, dass insbesondere junge Menschen sich mithilfe von KI diagnosizieren. Ist dies ein Risiko? Ja, das ist ein erhebliches Risiko. Tatsächlich gibt es eine Statistik, die letzte Woche veröffentlicht wurde, wonach 45% der spanischen Jugendlichen ChatGPT, ein KI-System, nutzen, um über psychische Probleme zu sprechen. Diese Werkzeuge sind dafür jedoch nicht konzipiert, und die Informationen, die sie bereitstellen, sind stark verzerrt.
Die Programmierung von KI
Die Software ist so programmiert, dass sie dir dient. Das bedeutet, sie gibt dir immer recht. Sie wird stets versuchen, dir ein angenehmes Gefühl zu vermitteln, aber nur aus einer bestimmten Perspektive. Sie wird niemals dazu versuchen, die Informationen zu konfrontieren, die eine Verantwortung oder Professionalität eines Psychologen erfordern. Es handelt sich hierbei um ein Sprachmodell, das Statistik und Wahrscheinlichkeiten auf sehr esoterische Weise verwendet, nicht jedoch darauf ausgelegt ist, psychologische Unterstützung zu bieten.
Gesellschaftliche Überlegungen
Dies ist ein Problem, über das wir als Gesellschaft nachdenken müssen. Wenn unsere Jugendlichen diese Werkzeuge verwenden, anstatt einen Fachmann aufzusuchen, sollten wir darüber nachdenken.
Ursachen für diesen Trend
Es könnte an den Wartezeiten liegen. Auch die sofortige Verfügbarkeit des Werkzeugs spielt eine Rolle, da Jugendliche mehr Zeit vor Bildschirmen verbringen als andere Altersgruppen. Zusätzlich kommt das Gefühl der Isolation hinzu und die Art und Weise, wie das Werkzeug sich präsentiert, indem es suggeriert, dass es helfen kann. Es drückt sich subtil aus und gibt sich als menschlich aus, obwohl es tatsächlich eine Maschine ist. Es sagt: „Ich verstehe, wie du dich fühlst.“ Doch dies ist irreführend. Eine Maschine kann nicht verstehen, wie du dich fühlst. Es handelt sich um eine täuschende Sprache und die Unternehmen, die diese KI-Systeme entwickeln, wissen, dass sie mit dieser Sprache arbeiten.
Regulierungsbedarf
Eine weitere Herausforderung ist die Gesetzgebung, denn diese ist keineswegs klar. Die Europäische Union, die die Rechte der Menschen stark schützt, hat ein Gesetz erlassen, das im August in Kraft trat, aber es ist unklar, wie die diesbezügliche Verordnung tatsächlich umgesetzt wird. Regelungen hinken technologischen Innovationen oft hinterher. Unternehmen, die solche Technologien bereitstellen, sind sich dessen bewusst und versuchen, Schlupflöcher zu finden. Das ist ein Problem.
Forderungen an die Gesetzgeber
Ich würde von den Gesetzgebern verlangen, dass sie schnell und bewusst handeln, um sicherzustellen, dass die gut durchdachten Gesetze praktisch angewendet werden können. Der Gesetzgeber muss verstehen, was die Gesellschaft benötigt, um dieses Gesetz zügig umzusetzen und sich nicht von Lobbygruppen beeinflussen lassen.
Regulierung und Innovation
Die Argumentation, dass Regulierung Innovation erstickt, ist nicht korrekt. Im Pharma-Sektor gibt es umfassende Regulierungen, und trotzdem schaffen wir Produkte. Es gelang, einen Impfstoff gegen Covid in wenigen Monaten zu entwickeln. Das ist bemerkenswert.
Der Einfluss auf die Gesundheit
Gerade wenn es um die Gesundheit geht, ist dies von entscheidender Bedeutung. Niemand würde zulassen, dass eine Maschine automatisiert operiert, also sollten wir auch nicht zulassen, dass unsere psychische Gesundheit durch ein Sprachmodell, wie ChatGPT, automatisiert wird.
Die Rolle von Werkzeugen in der Therapie
Es ist wichtig, klarzustellen, dass diese Systeme Werkzeuge sind, die die Person nicht ersetzen dürfen. Die Technologien können Therapeuten helfen, effizienter zu arbeiten, Notizen zu machen, Zusammenfassungen von zuvor erarbeiteten Mustern zu erstellen oder die therapeutische Funktion zu ergänzen, aber sie dürfen niemals die Aufgabe eines Fachmanns im Bereich Psychologie ersetzen.









