Heim > Artikel > Technologie-Peripheriegeräte > Experte: Eine fein abgestimmte Modell-KI könnte für Ärzte zu einem „Geistespatienten“ werden, den sie untersuchen können
Visuelles China-Bild
ChatGPT Wenn „Weisheit entsteht“, entstehen dann Emotionen?
Eine Studie aus Deutschland im April 2023 zeigte, dass GPT3.5 in einem häufig verwendeten Fragebogen zum Testen von Angststörungen bei Menschen höhere Werte erzielte, und nachdem sie aufgefordert wurden, in Angstsituationen einzutreten, wie von den Forschern erwartet. Dies führt zu spezifischen Entscheidungsurteilen und voreingenommenes Verhalten. Bedeutet das, dass KI darauf trainiert werden kann, Angststörungen zu entwickeln?
Am 25. Mai diskutierte Qiu Jianying, Direktor des Psychologischen Beratungs- und Behandlungszentrums des Shanghai Mental Health Center, beim ersten „AI Ask the Brain“-Dialog des Tianqiao Brain Science Institute (kurz TCCI) über künstliche Intelligenz Chen Guang von der Universität für Post und Telekommunikation Peking, außerordentlicher Professor der School of Intelligence, kommunizierte und interagierte online zu diesem Thema und lockte fast 70.000 Menschen an, die Live-Übertragung zu verfolgen.
Als leitender Psychiater und Psychotherapeut ist Qiu Jianying sehr erfreut zu sehen, dass die Leistung der KI bei der emotionalen Wahrnehmung dieses Mal ein neues Niveau erreicht hat. Sie sagte offen, dass sie sich darauf freue, dass KI nach einer professionellen Ausbildung Angststörungen erleiden könne, um Ärzten dabei zu helfen, die Erscheinungsformen von Angststörungen besser zu verstehen, die relevanten Faktoren dahinter zu analysieren und neue Ideen für die Suche nach mehr zu eröffnen und bessere Präventions- und Heilungsmethoden.
Chen Guang glaubt, dass diese Art von Modell auf der Grundlage einer großen Menge an Trainingsdaten lernt und Text generiert. Derzeit mangelt es Modellen, die mit Lückenfüll- und Solitaire-Methoden trainiert werden, an echtem subjektivem Bewusstsein und sie haben weder Emotionen noch Willen. Basierend auf dem künstlichen Feedback-Verstärkungslernen (RLHF) kann sich die KI tatsächlich kontinuierlich anpassen, basierend auf menschlichem Urteilsvermögen und der Führung ihrer Ausgabeergebnisse, und sich allmählich menschlichen Tendenzen annähern. Obwohl die heutige Nachahmung zum Lernen und Generieren von Texten verwendet werden kann, glaubt er, dass sie keine stabile und konsistente „Persönlichkeit“ bilden kann.
Qiu Jianying führte ein, dass sich pathologische Angst auf ein anhaltendes Gefühl von Nervosität und Unbehagen ohne besonderen Grund oder auf eine Vorahnung einer Katastrophe, einer Bedrohung oder einer drohenden Katastrophe ohne realistische Grundlage bezieht, begleitet von einer offensichtlichen Funktionsstörung des autonomen Nervensystems und sexueller Bewegungsdysphorie geht oft mit subjektiven Schmerzen oder einer Beeinträchtigung der sozialen Funktion einher. Laut Statistiken der Nationalen Gesundheitskommission aus dem Jahr 2020 liegt die Inzidenzrate von Angststörungen in China bei etwa 5 %.
Dem Dialog zufolge haben Ärzte in den letzten Jahren die Technologie der künstlichen Intelligenz aktiv zur Diagnose und Behandlung von psychischen Störungen, einschließlich Angststörungen, eingesetzt. Derzeit spielt KI eine aktive unterstützende Rolle in der Suizidprävention und anderen Bereichen. Da sich der Umfang der Mensch-Computer-Interaktion von Text auf Gesichtsausdrücke, Körperhaltungen, Sprache, Herzfrequenz, Körpertemperatur und sogar zukünftige Gehirn-Computer-Schnittstellen erweitert, wird KI weiterhin dazu beitragen, die physiologischen Mechanismen hinter menschlichen Emotionen aufzudecken und zu Psychotherapie-Robotern zu werden Oder unterstützen Sie die Diagnose und Behandlung psychischer Erkrankungen in abgelegenen Gebieten mit begrenzten medizinischen Ressourcen.
Chen Guang stellte aus Sicht der Informatik fest, dass der ChatGPT-Trend die weit verbreitete Anwendung von KI in allen Lebensbereichen gefördert hat, wenn das große Modell mit professionellen Daten im Bereich der psychischen Gesundheit kombiniert wird Einerseits wird es der KI dabei helfen, menschliche emotionale Reaktionen besser zu simulieren und eine Gruppe von „psychischen Patienten“ zu simulieren, damit Ärzte sie untersuchen können. Andererseits wird damit auch eine genauere und effizientere Identifizierung menschlicher emotionaler Störungen und eine Hilfsdiagnose erwartet und Behandlungsrolle. Der Umfang relevanter Daten ist der Schlüssel dafür, ob die KI-Technologie tief in den Bereich der psychischen Gesundheit eindringen kann.
Qiu Jianying und Chen Guang waren sich einig, dass die Identifizierung psychischer Störungen in der traditionellen Medizin auf subjektiver Beobachtung beruht. Der Aufstieg der Computerpsychiatrie hat die Anwendung von Werkzeugen wie Datenanalyse, maschinellem Lernen und künstlicher Intelligenz bei der Klassifizierungsdiagnose, Risikowarnung und Prognosevorhersage psychischer Störungen gefördert und bei der Formulierung klinischer Diagnose, Behandlung und Prävention geholfen Strategien. Die durch ChatGPT repräsentierte Großmodell-KI wird größere Durchbrüche in der Computerpsychiatrie bringen und den Menschen dabei helfen, die beiden „Black Boxes“ psychischer Erkrankungen und Gehirn weiter zu öffnen.
„AI Asks the Brain“ ist eine neu gestartete Konferenzreihe zum leichten akademischen Austausch, die sich auf den Austausch zwischen KI- und Hirnforschern, die Erforschung der wechselseitigen Innovation von KI-Technologie und Hirnforschung sowie die Erforschung des autonomen KI-Bewusstseins konzentriert und menschliches Bewusstsein Führen Sie offene Diskussionen zu beliebten Themen wie Cloud Computing.
Das obige ist der detaillierte Inhalt vonExperte: Eine fein abgestimmte Modell-KI könnte für Ärzte zu einem „Geistespatienten“ werden, den sie untersuchen können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!