Seite wählen

Auf einer Veranstaltung der digitalen Plattform für exponentielles Wachstum im Gesundheitswesen der 10 x Digital Health GmbH, nur kurz 10 x D, haben sich WissenschaftlerInnen aus Medizin und IT zum Austausch verabredet, um über die Künstliche Intelligenz (KI) „ChatGPT“ zu diskutieren, denn die Sprachassistenz spaltet die Gesellschaft rund um medizinische Fragen.  

Forschende aus Medizin und IT-Management beurteilen demnach ChatGPT als Textgenerator des Unternehmens OpenAI, der beliebige Texte mit passenden Eingaben von Schlagwörtern erzeugen kann und Antworten auf die meisten Fragen kennt, sehr unterschiedlich. So sind nicht nur Texterstellungen von medizinischen Gesundheitsblog-Beiträgen möglich, sondern auch Bewertungen und Emotionen, um die Leser zu erreichen.  

Kann ChatGPT als Prototyp eines Chatbots folglich die medizinische Beratung verbessern? WissenschaftlerInnen, beispielsweise der FOM-Hochschule, zweifeln, denn wissenschaftliche Quellen werden nur zu zwei Prozent in die Textstrukturierung, die gut ist, miteinbezogen, sodass wissenschaftliche Leitlinien fast komplett fehlen.  

ChatGPT ist zur Vereinfachung von medizinischer Fachtext-Literatur für Laien allerdings gut geeignet. Das textbasierte Dialogsystem schreibt plausibel klingende Texte, die aber oft falsch formuliert sind und zu unsinnigen Antworten neigen. Auf Änderungen in der Eingabeformulierung reagiert das System empfindlich wie auch auf mehrfache Eingabe-Versuche.  

Allerdings ist die Leistungsfähigkeit enorm, aber medizinisches Wissen ganz ohne spezielles Training der Software grenzwertig zu beurteilen.  

Zur Erhebung und Erfassung von Anamnesen eignet sich ChatGPT; die Universitätsmedizin Essen benutzt den Chatbot des US-amerikanischen Herstellers als Hilfestellung.  

Man kann den KI-Textgenerator trotzdem wohl eher nicht als Medizinprodukt einstufen. Auch die Haftung liegt bei Ärztinnen und Ärzten, weil der Chatbot bei Identitätsnachweisen zur Schweigepflichtverletzung beitragen kann.  

ExpertInnen warnen, mit dem Sprachassistenten nicht auf das Denken zu verzichten und alles der KI zu überlassen, denn das würde auch der sozialen Kompetenz schaden.  

Quelle: gesundheitsprofi.de