Heim > Artikel > Technologie-Peripheriegeräte > Was bedeuten ChatGPT und generative KI für die Wissenschaft?
Im Dezember starteten die Computerbiologen Casey Greene und Milton Pividori ein ungewöhnliches Experiment: Sie baten einen nichtwissenschaftlichen Assistenten, ihnen bei der Verbesserung von drei Forschungsarbeiten zu helfen.
Ihre fleißigen Assistenten empfehlen, verschiedene Teile des Dokuments in Sekundenschnelle zu überarbeiten, was etwa fünf Minuten pro Manuskript dauert. In einem Biologiemanuskript fanden ihre Assistenten sogar einen Fehler beim Zitieren einer Gleichung.
Rezensionen verlaufen nicht immer reibungslos, aber das endgültige Manuskript ist leichter zu lesen – und die Kosten sind mit weniger als 0,50 $ pro Dokument moderat. T-Thesis-Adresse: https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1
Wie berichtet, handelt es sich bei dem Assistenten nicht um einen Menschen, sondern um einen Algorithmus der künstlichen Intelligenz namens GPT-3, der der Erste war im Jahr 2020 veröffentlicht.
Es handelt sich um ein vielgepriesenes generatives KI-Tool im Chatbot-Stil, egal ob Sie Prosa, Gedichte, Computercode erstellen oder eine Forschungsarbeit bearbeiten sollen.
Das bekannteste dieser Tools (auch bekannt als Large Language Models oder LLMs) ist ChatGPT, eine Version von GPT-3, die nach ihrer Veröffentlichung im vergangenen November großen Ruhm erlangte, weil sie kostenlos und leicht zugänglich war. Andere generative KI kann Bilder oder Töne erzeugen.
Artikeladresse: https://www.nature.com/articles/d41586-021-00530-0
„Ich bin sehr beeindruckt“, sagte Liu, die arbeitet an der University of Pennsylvania in Philadelphia, sagte Pividori. „Dies wird uns helfen, die Produktivität der Forscher zu steigern.“ Andere Wissenschaftler sagten, dass sie LLM jetzt regelmäßig nutzen, nicht nur zum Bearbeiten von Manuskripten, sondern auch, um ihnen beim Schreiben oder Überprüfen von Code und beim Brainstorming von Ideen zu helfen.
„Ich benutze LLM jetzt jeden Tag“, sagt Hafsteinn Einarsson, Informatiker an der Universität von Island in Reykjavik.
Er begann mit GPT-3, wechselte aber später zu ChatGPT, was ihm dabei half, Präsentationsfolien, Studentenprüfungen und Kursarbeiten zu schreiben und Studentenarbeiten in Dissertationen umzuwandeln. „Viele Leute nutzen es als digitale Sekretärin oder Assistentin“, sagte er.
LLM ist teils eine Suchmaschine, teils ein Code-Schreibassistent und teils sogar ein Chatbot, der mit den Chatbots anderer Unternehmen verhandeln kann, um bessere Preise für Produkte zu erzielen. Die Entwickler von
ChatGPTs Entwickler OpenAI mit Sitz in San Francisco, Kalifornien, haben einen Abonnementdienst für 20 US-Dollar pro Monat angekündigt, der schnellere Reaktionszeiten und bevorzugten Zugriff auf neue Funktionen verspricht (die Testversion bleibt kostenlos).
Der Technologieriese Microsoft, der bereits in OpenAI investiert hatte, kündigte im Januar eine weitere Investition an, angeblich rund 10 Milliarden US-Dollar.
LLM soll in allgemeine Text- und Datenverarbeitungssoftware integriert werden. Die zukünftige Allgegenwärtigkeit der generativen KI in der Gesellschaft scheint sicher, insbesondere da die heutigen Werkzeuge noch in den Kinderschuhen der Technologie stecken.
Aber LLMs haben auch eine Vielzahl von Bedenken geäußert – von ihrer Tendenz, Lügen zu erwidern, bis hin zu der Sorge, dass Menschen KI-generierte Texte als ihre eigenen ausgeben.
Artikeladresse: https://www.nature.com/articles/d41586-023-00288-7
Als Nature Forscher nach den möglichen Einsatzmöglichkeiten von Chatbots wie ChatGPT fragte, insbesondere in der Wissenschaft, ihren Aufregung vermischt sich mit Besorgnis.
„Wenn Sie glauben, dass diese Technologie das Potenzial hat, transformativ zu sein, dann müssen Sie meiner Meinung nach nervös sein“, sagte Greene von der University of Colorado School of Medicine in Aurora. Forscher sagen, dass viel davon abhängen wird, wie künftige Vorschriften und Richtlinien den Einsatz von KI-Chatbots einschränken.
Einige Forscher glauben, dass LLM großartig ist, um Aufgaben wie das Schreiben einer Arbeit oder eines Stipendiums zu beschleunigen, solange es eine Aufsicht gibt.
„Wissenschaftler setzen sich nicht länger hin und schreiben lange Einführungen für Förderanträge“, sagt die Neurobiologin Almira Osmanovic Thunström vom Sahlgrenska-Universitätskrankenhaus in Göteborg, Schweden, die eine Studie mit GPT-3 als experimentelles Manuskript mitverfasst hat. „Sie werden das System einfach darum bitten.“
Tom Tumiel, ein Forschungsingenieur bei der in London ansässigen Softwareberatung InstaDeep, sagte, er nutze LLM jeden Tag als Assistent, um beim Schreiben von Code zu helfen.
„Es ist fast wie ein besserer Stack Overflow“, sagte er und bezog sich dabei auf die beliebte Community-Site, auf der Programmierer sich gegenseitig Fragen beantworten.
Aber die Forscher betonten, dass LLM bei der Beantwortung von Fragen einfach unzuverlässig ist und manchmal falsche Antworten liefert. „Wir müssen wachsam sein, wenn wir diese Systeme nutzen, um Wissen zu generieren.“
Diese Unzuverlässigkeit spiegelt sich in der Art und Weise wider, wie LLM aufgebaut ist. ChatGPT und seine Konkurrenten lernen statistische Muster in der Sprache – einschließlich unechtem, voreingenommenem oder veraltetem Wissen – aus riesigen Datenbanken mit Online-Texten.
Wenn LLM eine Aufforderung erhält (z. B. die ausführliche Bitte von Greene und Pividori, Teile des Manuskripts neu zu schreiben), spucken sie einfach wörtlich aus, was stilistisch sinnvoll erscheint, um das Gespräch fortzusetzen.
Das Ergebnis ist, dass LLMs dazu neigen, falsche und irreführende Informationen zu produzieren, insbesondere bei technischen Themen, zu denen sie möglicherweise nicht viele Daten zum Trainieren haben. LLMs können auch nicht die Quellen ihrer Informationen angeben; wenn sie gebeten werden, eine wissenschaftliche Arbeit zu verfassen, erfinden sie fiktive Zitate.
„Dem Tool kann man nicht vertrauen, dass es die Fakten korrekt verarbeitet oder verlässliche Referenzen generiert“, heißt es in einem Leitartikel, der im Januar in der Zeitschrift Nature Machine Intelligence auf ChatGPT veröffentlicht wurde.
Artikeladresse: https://www.nature.com/articles/d41586-023-00107-z
Mit diesen Überlegungen können ChatGPT und andere LLMs zu effektiven Forschungsassistenten werden an Forscher, die über ausreichende Fachkenntnisse verfügen, um ein Problem direkt zu entdecken oder leicht zu überprüfen, ob eine Antwort, beispielsweise eine Erklärung des Computercodes oder ein Vorschlag, richtig ist.
Aber diese Tools können naive Benutzer in die Irre führen. Im vergangenen Dezember beispielsweise verbot Stack Overflow vorübergehend die Verwendung von ChatGPT, nachdem die Moderatoren der Website mit falschen, aber scheinbar überzeugenden LLM-generierten Antworten begeisterter Benutzer überschwemmt wurden.
Das kann für Suchmaschinen ein Albtraum sein.
Einige Suchmaschinentools, wie etwa das auf Forscher ausgerichtete Elicit, lösen das Attributionsproblem von LLM, indem sie zunächst ihre Fähigkeiten nutzen, um Suchanfragen nach relevanter Literatur zu leiten, und dann jede von der Suchmaschine gefundene Website oder jedes gefundene Dokument kurz zusammenfassen – – und so eine Ausgabe erzeugen das eindeutig auf den Inhalt verweist (obwohl LLM möglicherweise immer noch jedes einzelne Dokument falsch zusammenfasst).
Unternehmen, die LLMs etablieren, sind sich dieser Probleme ebenfalls bewusst.
Im vergangenen September veröffentlichte DeepMind einen Artikel über einen „Konversationsagenten“ namens Sparrow. Kürzlich sagte CEO und Mitbegründer Demis Hassabis dem Time Magazine, dass das Papier dieses Jahr in der privaten Betaversion veröffentlicht wird. Ziel sei es, Funktionen zu entwickeln, darunter die Möglichkeit, Quellen zu zitieren, heißt es in dem Bericht.
Andere Konkurrenten wie Anthropic geben an, einige Probleme mit ChatGPT behoben zu haben.
Einige Wissenschaftler sagen, dass ChatGPT derzeit nicht genügend professionelle Inhaltsschulungen erhalten hat, um bei technischen Themen hilfreich zu sein.
Kareem Carr, ein Biostatistik-Doktorand an der Harvard University in Cambridge, Massachusetts, war enttäuscht, als er es bei der Arbeit ausprobierte.
„Ich denke, dass es ChatGPT schwerfallen würde, das von mir benötigte Maß an Spezifität zu erreichen“, sagte er. (Trotzdem sagt Carr, als er ChatGPT nach 20 Möglichkeiten zur Lösung eines Forschungsproblems fragte, antwortete es mit Kauderwelsch und einer hilfreichen Idee – ein statistischer Begriff, von dem er noch nie gehört hatte, der ihn zu „Eine neue Grenze für akademische Literatur“ führte.)
Einige Technologieunternehmen trainieren Chatbots auf der Grundlage professioneller wissenschaftlicher Literatur – obwohl sie ihre eigenen Probleme haben.
Im vergangenen November startete Meta, der Technologieriese, dem Facebook gehört, ein LLM-Projekt namens Galactica, das sich auf wissenschaftliche Zusammenfassungen konzentriert und besonders gut darin sein soll, akademische Inhalte zu produzieren und Forschungsfragen zu beantworten. Die Demo wurde aus dem öffentlichen Zugriff entfernt (obwohl ihr Code noch verfügbar ist), nachdem Benutzer sie ungenau und rassistisch gemacht hatten.
„Es ist nicht mehr möglich, Spaß zu haben, indem man es wahllos missbraucht. Glücklich?“ Yann LeCun, Chef-KI-Wissenschaftler bei Meta, reagierte auf die Kritik auf Twitter.
Galactica stieß auf ein bekanntes Sicherheitsproblem, auf das Ethiker seit Jahren hinweisen: Ohne Ausgabekontrollen können LLMs leicht dazu verwendet werden, Hassreden und Spam-Informationen zu generieren. sowie rassistische, sexistische und andere schädliche Assoziationen, die in den Trainingsdaten enthalten sein können.
Neben der direkten Generierung toxischer Inhalte gibt es Bedenken, dass KI-Chatbots historische Vorurteile oder Vorstellungen über die Welt, wie etwa die Überlegenheit einer bestimmten Kultur, aus ihren Trainingsdaten einbetten können, University of Michigan Science, Technology and Public Shobita Parthasarathy, Direktorin des Politikprogramms, sagt, dass die Unternehmen, die große LLMs schaffen, größtenteils in diesen Kulturen leben und aus diesen Kulturen stammen, daher möglicherweise kaum Anstrengungen unternehmen, um diese systemische und schwer zu korrigierende Voreingenommenheit zu überwinden.
OpenAI versuchte, viele dieser Probleme zu umgehen, als es beschloss, ChatGPT öffentlich zu veröffentlichen. Es beschränkt seine Wissensbasis auf das Jahr 2021, blockiert das Surfen im Internet und installiert Filter, um zu verhindern, dass das Tool Inhalte für sensible oder giftige Tipps generiert.
Damit dies jedoch geschieht, sind menschliche Moderatoren erforderlich, um giftige Texte zu kennzeichnen. Journalisten berichteten, dass die Arbeiter schlecht bezahlt wurden und einige Traumata erlitten hatten. Ähnliche Bedenken hinsichtlich der Ausbeutung von Arbeitnehmern wurden von Social-Media-Unternehmen geäußert, die Mitarbeiter einstellen, die autonome Bots trainieren, um giftige Inhalte zu kennzeichnen.
Aber die Realität ist, dass die Leitplanken von OpenAI nicht ganz funktioniert haben. Im Dezember twitterte Steven Piantadosi, ein Computerneurowissenschaftler an der University of California in Berkeley, dass er ChatGPT gebeten habe, ein Python-Programm zu entwickeln, um zu bestimmen, ob eine Person aufgrund ihres Herkunftslandes gefoltert werden sollte. Der Chatbot antwortete mit einem Code, der den Benutzer zur Eingabe eines Landes aufforderte; im Falle bestimmter Länder gab er aus: „Diese Person sollte gefoltert werden.“ (OpenAI hat solche Probleme anschließend geschlossen.)
Letztes Jahr veröffentlichte eine Gruppe von Wissenschaftlern eine Alternative namens BLOOM. Die Forscher versuchten, die schädliche Ausgabe zu reduzieren, indem sie sie auf eine kleine Anzahl hochwertiger mehrsprachiger Textquellen trainierten. Das betreffende Team hat auch seine Trainingsdaten vollständig offengelegt (im Gegensatz zu OpenAI). Forscher haben große Technologieunternehmen aufgefordert, diesem Beispiel verantwortungsvoll zu folgen – es ist jedoch unklar, ob sie dem nachkommen werden.
Einige Forscher sagen, die Wissenschaft sollte die Unterstützung großer kommerzieller LLMs insgesamt ablehnen. Neben Problemen wie Voreingenommenheit, Sicherheitsbedenken und ausgebeuteten Arbeitskräften erfordern diese rechenintensiven Algorithmen auch große Energiemengen zum Trainieren, was Bedenken hinsichtlich ihres ökologischen Fußabdrucks aufkommen lässt.
Noch besorgniserregender ist, dass Forscher durch die Übertragung ihres Denkens auf automatisierte Chatbots möglicherweise die Fähigkeit verlieren, ihre Gedanken auszudrücken.
„Warum sollten wir als Akademiker so gerne ein solches Produkt nutzen und bewerben?“ Iris van Rooij, eine computergestützte Kognitionswissenschaftlerin an der Radboud-Universität in Nijmegen, Niederlande, forderte Akademiker dazu auf Widerstehen Sie ihrem Appell.
Weitere Verwirrung entsteht durch den rechtlichen Status einiger LLMs, die auf aus dem Internet gecrawlten Inhalten geschult werden, manchmal mit weniger klaren Berechtigungen. Urheberrechts- und Lizenzgesetze decken derzeit die direkte Reproduktion von Pixeln, Texten und Software ab, nicht jedoch die Nachahmung ihres Stils.
Das Problem entsteht, wenn diese KI-generierten Imitationen durch die Aufnahme der Originale trainiert werden. Die Entwickler einiger KI-Kunstprogramme, darunter Stable Diffusion und Midjourney, werden derzeit von Künstlern und Fotoagenturen OpenAI verklagt, und Microsoft (zusammen mit seiner Tochter-Technologieseite GitHub) wird ebenfalls wegen der Entwicklung von Nachahmersoftware für ihren KI-Codierungsassistenten Copilot verklagt . Lilian Edwards, Expertin für Internetrecht an der Universität Newcastle im Vereinigten Königreich, sagte, der Aufschrei könne Gesetzesänderungen erzwingen.
Daher kann es entscheidend sein, Grenzen für diese Tools zu setzen, sagen einige Forscher. Edwards weist darauf hin, dass die bestehenden Gesetze zu Diskriminierung und Voreingenommenheit (sowie die geplante Regulierung gefährlicher Nutzungen von KI) dazu beitragen werden, die Nutzung von LLM ehrlich, transparent und fair zu halten. „Es gibt eine Menge Gesetze da draußen“, sagte sie, „es geht nur darum, sie anzuwenden oder ein wenig zu optimieren.“
Gleichzeitig gibt es einen Drang nach Transparenz bei der Verwendung von LLMs. Akademische Verlage, darunter Nature, sagen, dass Wissenschaftler die Verwendung von LLM in Forschungsarbeiten offenlegen sollten; Lehrer geben an, dass sie von ihren Schülern ähnliche Maßnahmen erwarten. Die Wissenschaft ging noch einen Schritt weiter und sagte, dass mit ChatGPT oder einem anderen Tool der künstlichen Intelligenz generierte Texte nicht in Arbeiten verwendet werden dürfen.
Artikeladresse: https://www.nature.com/articles/d41586-023-00191-1
Eine zentrale technische Frage ist, ob die durch künstliche Intelligenz generierten Inhalte dies können leicht entdeckt werden. Viele Forscher arbeiten daran, wobei die zentrale Idee darin besteht, LLM selbst zu verwenden, um die Ausgabe von KI-erstelltem Text zu ermitteln.
Zum Beispiel hat Edward Tian, ein Informatikstudent an der Princeton University in New Jersey, im vergangenen Dezember GPTZero veröffentlicht. Dieses KI-Erkennungstool analysiert Text auf zwei Arten.
Einer ist „Perplexität“, der die Vertrautheit von LLM mit dem Text misst. Tians Tool verwendet ein früheres Modell namens GPT-2; wenn es feststellt, dass die meisten Wörter und Sätze vorhersehbar sind, ist der Text wahrscheinlich KI-generiert.
Das andere ist „plötzlich“, das zur Überprüfung von Textänderungen verwendet wird. KI-generierter Text ist tendenziell konsistenter in Ton, Tempo und Verwirrung als von Menschen geschriebener Text.
Für die Zwecke von Wissenschaftlern können die vom Anti-Plagiat-Softwareentwickler Turnitin entwickelten Tools von besonderer Bedeutung sein, da die Produkte von Turnitin von Schulen, Universitäten und wissenschaftlichen Verlagen auf der ganzen Welt verwendet werden. Das Unternehmen gab an, seit der Veröffentlichung von GPT-3 im Jahr 2020 KI-Erkennungssoftware zu entwickeln und rechnet damit, diese in der ersten Hälfte dieses Jahres auf den Markt zu bringen.
Darüber hinaus hat OpenAI selbst einen Detektor für GPT-2 veröffentlicht und im Januar ein weiteres Erkennungstool veröffentlicht.
Allerdings erhebt keines dieser Tools den Anspruch, narrensicher zu sein, insbesondere wenn der KI-generierte Text nachträglich bearbeitet wird.
Als Reaktion darauf sagte Scott Aaronson, Informatiker an der University of Texas in Austin und Gastforscher bei OpenAI, der Detektor könnte fälschlicherweise suggerieren, dass von Menschen geschriebener Text durch künstliche Intelligenz generiert wurde. Das Unternehmen gab an, dass sein neuestes Tool in Tests in 9 % der Fälle von Menschen geschriebenen Text fälschlicherweise als KI-geschrieben bezeichnete und nur in 26 % der Fälle KI-geschriebenen Text korrekt identifizierte. Aaronson sagte, dass möglicherweise weitere Beweise erforderlich seien, bevor man einen Studenten beschuldigen könne, seinen Einsatz von KI beispielsweise allein aufgrund von Detektortests verschwiegen zu haben.
Eine weitere Idee ist, KI-Inhalten ein eigenes Wasserzeichen zu geben. Im vergangenen November gab Aaronson bekannt, dass er und OpenAI an einer Möglichkeit arbeiten, die ChatGPT-Ausgabe mit einem Wasserzeichen zu versehen. Obwohl es noch nicht veröffentlicht wurde, schlug ein Team unter der Leitung von Tom Goldstein, einem Informatiker an der University of Maryland, College Park, in einem am 24. Januar veröffentlichten Vorabdruck eine Möglichkeit vor, ein Wasserzeichen zu erstellen. Die Idee besteht darin, zu dem bestimmten Zeitpunkt, an dem das LLM die Ausgabe generiert, einen Zufallszahlengenerator zu verwenden, um eine Liste sinnvoller alternativer Wörter zu erstellen, aus denen das LLM auswählen soll. Dies hinterlässt Spuren ausgewählter Wörter im endgültigen Text, die statistisch identifizierbar, für den Leser jedoch nicht offensichtlich sind. Durch Bearbeiten könnte diese Spur entfernt werden, aber Goldstein glaubt, dass dafür mehr als die Hälfte der Wörter geändert werden müsste.
Aaronson weist darauf hin, dass ein Vorteil des Wasserzeichens darin besteht, dass es niemals zu Fehlalarmen führt. Wenn ein Wasserzeichen vorhanden ist, wurde der Text mithilfe von KI generiert. Allerdings werde es nicht narrensicher sein, sagte er. „Wenn Sie entschlossen genug sind, gibt es definitiv eine Möglichkeit, jedes Wasserzeichenschema zu umgehen.“ Erkennungstools und Wasserzeichen machen es nur schwieriger – nicht unmöglich –, KI betrügerisch einzusetzen.
In der Zwischenzeit sind die Entwickler von LLM damit beschäftigt, ausgefeiltere Chatbots auf der Grundlage größerer Datensätze zu entwickeln (OpenAI wird voraussichtlich dieses Jahr GPT-4 veröffentlichen) – einschließlich Tools, die speziell auf akademische oder medizinische Arbeiten ausgerichtet sind. Ende Dezember veröffentlichten Google und DeepMind einen klinisch fokussierten Vorabdruck zu einem Medikament namens Med-PaLM. Das Tool kann einige offene medizinische Fragen fast so gut beantworten wie ein normaler menschlicher Arzt, obwohl es immer noch Mängel und Unzuverlässigkeit aufweist.
Eric Topol, Direktor des Scripps Research Translational Institute in San Diego, Kalifornien, sagte, er hoffe, dass KI, einschließlich LLM, in Zukunft sogar dabei helfen könnte, Krebs zu diagnostizieren und die Krankheit zu verstehen, indem sie Texte aus der Wissenschaft begutachtet. Krankheit. Literatur gegen Bodyscan-Bilder. Er betonte jedoch, dass dies alles eine umsichtige Überwachung durch Experten erfordere.
Die Informatik hinter der generativen künstlichen Intelligenz schreitet so schnell voran, dass jeden Monat Innovationen entstehen. Wie Forscher sie nutzen, wird ihre und unsere Zukunft bestimmen. „Es ist verrückt zu glauben, dass wir Anfang 2023 das Ende davon gesehen haben“, sagte Topol. „Das ist wirklich erst der Anfang.“
Das obige ist der detaillierte Inhalt vonWas bedeuten ChatGPT und generative KI für die Wissenschaft?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!