Heim > Artikel > Technologie-Peripheriegeräte > Warum fragen Sie nicht einen KI-Chatbot nach Gesundheitsfragen?
Neuigkeiten vom 28. April: Seitdem OpenAI, Microsoft und Google KI-Chatbots eingeführt haben, haben viele Menschen damit begonnen, eine neue Art der Suche im Internet auszuprobieren: mit einer Modellkonversation, und was es aus dem gesamten Web lernt.
Experten sagen, dass wir aufgrund unserer früheren Tendenz, Gesundheitsthemen über Suchmaschinen abzufragen, zwangsläufig auch Fragen an Tools wie ChatGPT, Bing und Bard stellen werden. Allerdings machen diese Tools einige bekannte Datenschutzfehler und verursachen einige neue. „Verbraucher sollten diese Tools zumindest mit Skepsis betrachten, da sie wie viele andere beliebte Technologien von der Macht von Werbung und Marketing beeinflusst werden.“ eine Nachricht oder ein anderes Geheimnis, es gibt ein paar Dinge, die Sie wissen müssen:
1 Speichern diese Bots meinen Chatverlauf?Ja, ChatGPT, Bing und Bard speichern alle Benutzereingaben. Allerdings bietet Google Bard, das mit einer kleinen Anzahl von Nutzern getestet wird, eine Einstellung, die es Nutzern ermöglicht, das Unternehmen aufzufordern, die Speicherung von Abfragedatensätzen zu stoppen und sie aus der Verknüpfung mit dem Google-Konto des Nutzers zu entfernen. Klicken Sie einfach auf die Menüleiste in der oberen linken Ecke und schließen Sie „Bard Activity“.
Benutzer können auch die Option „Chat-Verlauf und Training“ in den Einstellungen von OpenAI deaktivieren, um die Speicherzeit von Chat-Datensätzen zu begrenzen. Das Unternehmen sagte, es werde Chat-Aufzeichnungen nach der Schließung nur 30 Tage lang speichern und sie nicht für Schulungen zur künstlichen Intelligenz verwenden.
2. Was machen diese Unternehmen mit unseren Chat-Aufzeichnungen?Diese Unternehmen nutzen die Fragen und Antworten der Benutzer, um Modelle der künstlichen Intelligenz zu trainieren, um bessere Antworten zu liefern. Diese Chats können jedoch für mehr als das genutzt werden. Als Google und Microsoft Chatbots mit künstlicher Intelligenz einführten, ließen sie in ihren Datenschutzrichtlinien auch Raum für die Verwendung von Benutzer-Chatprotokollen für Werbung. Das heißt, wenn Sie eine Frage zu orthopädischen Schuhen stellen, werden Ihnen in Zukunft möglicherweise Anzeigen für diese Kategorie angezeigt.
Solche Anzeigen haben möglicherweise nur geringe Auswirkungen auf die Nutzer. Doch wenn Gesundheitsbedenken und digitale Werbung zusammentreffen, kann es zu Schäden kommen. Frühere Berichte haben ergeben, dass viele Websites zur Symptomprüfung, darunter WebMD und Drugs.com, potenziell sensible Gesundheitsprobleme der Benutzer wie Depressionen oder HIV sowie Benutzerkennungen an externe Werbefirmen weitergaben.
Darüber hinaus verkaufen Datenmakler umfangreiche Listen von Personen und ihren Gesundheitsproblemen an Käufer, zu denen möglicherweise Regierungen oder Versicherungsunternehmen gehören. Einige Menschen mit chronischen Krankheiten berichten, dass sie störende gezielte Werbung im Internet sehen.
Vor diesem Hintergrund sollten Nutzer darüber nachdenken, wie sehr sie diesen Unternehmen vertrauen, dass sie ihre Daten schützen, um aufdringliche Werbung zu vermeiden, und entscheiden, wie viele Gesundheitsinformationen sie mit Google oder Microsoft teilen möchten.
OpenAI gab an, dass das Unternehmen die Suchergebnisse der Benutzer nur speichert, um seine Modelle zu trainieren und zu verbessern. Ein OpenAI-Sprecher sagte, das Unternehmen nutze Benutzerinteraktionen mit Chatbots nicht, um Benutzerprofile zu erstellen oder Werbung zu machen, und habe auch keine Pläne, dies in Zukunft zu tun.
Rory Mir, stellvertretender Direktor für Community-Organisation bei der Electronic Frontier Foundation, einer gemeinnützigen Datenschutzorganisation, sagte, einige Menschen möchten möglicherweise nicht, dass ihre Daten für KI-Schulungen verwendet werden, unabhängig davon, welche Haltung sie gegenüber Werbung einnehmen sollen . Er fügte hinzu: „Irgendwann könnten die von ihnen gespeicherten Daten in die Hände eines anderen Unternehmens gelangen, dem Sie nicht so sehr vertrauen.“
3 ?Manchmal sind menschliche Prüfer beteiligt, um die Antworten des Chatbots zu überprüfen. Das bedeutet, dass sie auch Fragen sehen, die von Benutzern gestellt wurden. Beispielsweise speichert Google viele Chatprotokolle zur Überprüfung und Kommentierung bis zu vier Jahre lang. Obwohl diese Moderatoren die Google-Konten der Nutzer nicht einsehen können, empfiehlt Google, dass Nutzer in Chats keine personenbezogenen Daten preisgeben, einschließlich Namen, Adressen oder andere Details, die den Nutzer oder andere identifizieren könnten.
4. Wie lange wird mein Chatverlauf gespeichert?Mill sagte: „Das Sammeln unserer Daten und deren Aufbewahrung über einen längeren Zeitraum kann Datenschutz- und Sicherheitsrisiken bergen, und diese Unternehmen können gehackt werden oder sie an nicht vertrauenswürdige Geschäftspartner weitergeben. Die Daten.“ .“
Die Datenschutzrichtlinie von OpenAI besagt, dass das Unternehmen Benutzerdaten „nur so lange speichert, wie wir unsere Dienste für unsere Benutzer bereitstellen müssen oder für andere legitime Geschäftszwecke.“ Das könne auf unbestimmte Zeit dauern, wollte ein Unternehmenssprecher jedoch nicht präzisieren.
Darüber hinaus bewahren Google und Microsoft auch Nutzerdaten auf, bis der Nutzer eine Löschung beantragt.
5. Kann ich den von Robotern bereitgestellten Gesundheitsinformationen vertrauen?Dai Tinglong, Professor für Betriebsmanagement und Geschäftsanalyse der Auswirkungen künstlicher Intelligenz auf das Gesundheitswesen an der Johns Hopkins University Business School, sagte, dass das Internet wie ein Sammelbeutel für Gesundheit sei Informationen, und einige Informationen sind nützlich, andere nicht so nützlich. Große Sprachmodelle wie ChatGPT können Spam möglicherweise besser herausfiltern als herkömmliche Suchmaschinen.
Beispielsweise kann ChatGPT besser als Google Scholar sein, wenn es darum geht, jemandem dabei zu helfen, relevante Forschungsergebnisse zu seinen spezifischen Symptomen oder Beschwerden zu finden. In seiner Forschung untersucht Professor Dai, ob Chatbots seltene Krankheiten, die Ärzte nicht erkennen, korrekt diagnostizieren können.
Aber Professor Dai Tinglong wies darauf hin, dass dies nicht bedeute, dass wir uns auf Chatbots verlassen sollten, um genaue Gesundheitsberatung bereitzustellen. Er sagte, die Modelle seien nachweislich in der Lage, Informationen zu erfinden und als Tatsachen darzustellen, und ihre falschen Antworten könnten durchaus glaubwürdig erscheinen.
Darüber hinaus beziehen KI-Modelle Informationen aus unzuverlässigen Quellen. Wenn ein Benutzer beispielsweise fragt, warum er sich ständig müde fühlt, könnte Bard eine Reihe möglicher Antworten liefern und sogar eine Website über das Temperament kleiner Shih Tzu-Hunde zitieren. In Kombination mit der menschlichen Tendenz, Chatbot-Empfehlungen zu sehr zu vertrauen, könnte dies zu großen Problemen führen.
Professor Dai Tinglong warnte: „Während die Leistung dieser Technologie beeindruckend ist, ist sie jetzt wie ein Baby oder vielleicht wie ein Teenager. Die Leute testen es nur und wenn die Leute anfangen, sich darauf zu verlassen.“ Es wird sehr gefährlich.“
6.
Nicht jeder hat Zugang zu einem Arzt, wenn es ihm nicht gut geht, weil der Zugang zur Gesundheitsversorgung ungleichmäßig ist oder die Kosten dafür hoch sind. Wenn Sie nicht möchten, dass Ihre Gesundheitsdaten auf dem Server eines Unternehmens gespeichert oder als Werbematerial verwendet werden, können Sie einen datenschutzschützenden Browser verwenden.
Bevor Sie sich für einen KI-Chat-basierten Gesundheitsdienst (z. B. einen Therapie-Bot) anmelden, sollten Sie sich zunächst über die Einschränkungen der Technologie informieren und in der Datenschutzrichtlinie des Unternehmens nachsehen, ob es Daten verwendet. „Verbessern Sie die Dienste“. „oder Daten mit nicht identifizierten „Anbietern“ oder „Geschäftspartnern“ teilen. Bei beiden Begriffen handelt es sich häufig um Euphemismen, die von Werbetreibenden verwendet werden. (小小)
Das obige ist der detaillierte Inhalt vonWarum fragen Sie nicht einen KI-Chatbot nach Gesundheitsfragen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!