Heim > Artikel > Technologie-Peripheriegeräte > ChatGPT ist beliebt, aber 10 generative KI-Fehler sind besorgniserregend.
Nach Jahrzehnten unermüdlicher Bemühungen des wissenschaftlichen und technischen Personals hat die künstliche Intelligenz in der realen Welt endlich einen kritischen Punkt erreicht. Die erstaunliche Leistung von KI-Modellen wie ChatGPT und DALL-E hat vielen Menschen das Gefühl gegeben, dass immer intelligentere KI-Systeme den Menschen einholen.
Die Fähigkeiten generativer KI sind so vielfältig und einzigartig, dass man kaum glauben kann, dass sie einer Maschine entstammen. Aber sobald das Gefühl des Staunens nachlässt, wird auch die Sternenkraft der generativen KI nachlassen. KI hat in einigen Anwendungen auch die Grenzen ihrer Szenenwahrnehmung oder ihres gesunden Menschenverstands gezeigt. Heutzutage achten viele Menschen auf die Mängel oder Mängel der generativen KI.
Hier sind 10 Mängel oder Mängel der generativen KI, über die sich die Menschen Sorgen machen.
1.Plagiierte Inhalte
Wenn Forscher generative KI-Modelle wie DALL-E und ChatGPT erstellen, handelt es sich eigentlich nur um die Daten aus dem Training Erstellen Sie neue Muster aus Millionen von Beispielen. Das Ergebnis ist eine Kombination aus Ausschneiden und Einfügen aus verschiedenen Datenquellen, eine menschliche Praxis, die als „Plagiat“ bekannt ist.
Natürlich lernt der Mensch auch durch Nachahmung, aber in manchen Fällen ist diese Art von Plagiat unerwünscht und sogar illegal. Die durch generative KI generierten Inhalte bestehen aus einer großen Menge Text, einige Inhalte sind mehr oder weniger plagiiert. Allerdings sind manchmal so viele Mischungen oder Synthesen erforderlich, dass sogar ein Hochschulprofessor Schwierigkeiten haben könnte, die wahre Quelle zu erkennen. Unabhängig davon fehlt es den generierten Inhalten an Einzigartigkeit. Obwohl sie leistungsstark erscheinen, bringen sie keine wirklich innovativen Produkte hervor.
2. Urheberrechtsproblem
Obwohl Plagiate ein Problem sind, das Schulen zu vermeiden versuchen, gilt das Urheberrecht für den Markt. Wenn jemand das geistige Eigentum oder die Arbeit eines anderen stiehlt, kann er verklagt oder mit einer Geldstrafe in Millionenhöhe belegt werden. Aber was ist mit KI-Systemen? Gelten für sie die gleichen Regeln? Das Urheberrecht ist ein komplexes Thema, und es wird Jahre dauern, bis der rechtliche Status generativer KI ermittelt wird. Es muss jedoch beachtet werden, dass es zu Klagen aufgrund von Urheberrechtsbestimmungen kommen wird, wenn KI beginnt, einige der Arbeitsplätze von Menschen zu ersetzen.
3. Kostenlose Beschaffung menschlicher ArbeitskraftDie durch generative KI verursachten rechtlichen Probleme sind nicht nur Plagiate und Urheberrechtsverletzungen, das haben einige Anwälte bereits getan löst ethische Rechtsstreitigkeiten aus. Sammelt beispielsweise ein Unternehmen, das ein Zeichenprogramm herstellt, Daten über das Zeichenverhalten der Benutzer und verwendet diese Daten dann für KI-Trainingszwecke? Sollte ein Großteil des Erfolgs der KI auf dem Verständnis von Daten beruhen? Zugang. Was passiert also, wenn die Menschen, die die Daten generiert haben, davon profitieren wollen? Was ist legal? 🎜#
KI ist gut darin, die Art von Intelligenz zu imitieren, deren Entwicklung beim Menschen Jahre dauert. Wenn ein Anthropologe einen unbekannten Künstler des 17. Jahrhunderts vorstellt oder ein Künstler neue Musik in einem fast vergessenen Renaissance-Ton komponiert, bewundern die Menschen sein fortgeschrittenes Wissen und Können, da dies jahrelanges Studium und Übung erfordert. Wenn eine KI nach nur wenigen Monaten Training das Gleiche tun kann, können die Ergebnisse unglaublich präzise und korrekt sein, aber es fühlt sich immer so an, als würde etwas fehlen. Eine gut trainierte KI-Systemmaschine kann eine bestimmte Sache verstehen, indem sie eine große Menge an Informationen erhält, und kann sogar Maya-Hieroglyphen entziffern. KI scheint die lustige und unvorhersehbare Seite der menschlichen Kreativität nachzuahmen, aber sie kann es nicht wirklich. Gleichzeitig ist Unvorhersehbarkeit ein Treiber kreativer Innovation. Eine Branche wie die Mode ist nicht nur von Veränderungen besessen, sondern wird auch von ihnen definiert. Tatsächlich haben sowohl KI als auch Menschen ihre eigenen Fachgebiete.5. Begrenztes Intelligenzwachstum
Wenn es um Intelligenz geht, ist KI von Natur aus mechanisch und regelbasiert. Sobald ein KI-System anhand eines Datensatzes trainiert wird, entsteht ein Modell, das sich nicht wirklich ändert. Einige Ingenieure und Datenwissenschaftler stellen sich vor, KI-Modelle im Laufe der Zeit schrittweise umzuschulen, damit die KI lernt, sich anzupassen. Aber in den meisten Fällen besteht die Idee darin, einen komplexen Satz von Neuronen zu schaffen, die spezifisches Wissen in einer festen Form kodieren. Dies kann auf einige Branchen zutreffen. Die Gefahr der KI besteht darin, dass ihr Wachstum an Intelligenz für immer durch die Einschränkungen ihrer Trainingsdaten blockiert wird. Was wird passieren, wenn Menschen so abhängig von generativer KI werden, dass sie keine neuen Materialien mehr für Trainingsmodelle bereitstellen können? 🎜#KI-Training erfordert viele Daten und Menschen sind sich nicht immer so sicher, welche Ergebnisse neuronale Netze erzielen werden. Was passiert, wenn die KI persönliche Informationen aus den Trainingsdaten preisgibt? Schlimmer noch: Die Kontrolle der KI ist viel schwieriger, da sie sehr flexibel konzipiert ist. Relationale Datenbanken können den Zugriff auf bestimmte Tabellen mit persönlichen Informationen beschränken. KI kann jedoch auf Dutzende verschiedene Arten Abfragen durchführen. Cyber-Angreifer lernen schnell, die richtigen Fragen auf die richtige Art und Weise zu stellen, um an die gewünschten sensiblen Daten zu gelangen. Angenommen, ein Cyberangreifer hat den Breiten- und Längengrad einer bestimmten Einrichtung ins Visier genommen, wird das KI-System möglicherweise nach der genauen Zeit an diesem Ort gefragt, und ein gewissenhaftes KI-System kann die Frage möglicherweise beantworten. Daher ist es auch schwierig, KI zum Schutz privater Daten zu trainieren. 7. Voreingenommenheit erzeugen Schon frühe Mainframe-Programmierer verstanden den Kern des Computerproblems und prägten das Konzept der „Mülleingabe“. „Müllausgabe“ (GIGO). Viele Probleme mit KI sind auf schlechte Trainingsdaten zurückzuführen. Wenn ein Datensatz ungenau oder verzerrt ist, spiegelt sich dies in seiner Ausgabe wider. Die Kernhardware der generativen KI wird von Logik gesteuert, die Menschen, die die Maschinen bauen und trainieren, jedoch nicht. Es hat sich gezeigt, dass Voreingenommenheit und Fehler ihren Weg in KI-Modelle finden. Vielleicht hat jemand verzerrte Daten verwendet, um das Modell zu erstellen, vielleicht hat er die KI einfach außer Kraft gesetzt, um zu verhindern, dass sie bestimmte wichtige Fragen beantwortet, vielleicht hat er einige vorgefertigte Antworten eingegeben, die das KI-System verzerren. 8. KI macht auch Fehler Das ist in Ordnung, nur sind viele Fehler schwer vorhersehbar, weil KI anders denkt als Menschen. Viele Nutzer der Text-zu-Bild-Funktion stellten beispielsweise fest, dass die KI bei recht einfachen Dingen, etwa beim Zählen, Fehler machte. Der Mensch beginnt in der Grundschule mit dem Erlernen der Grundrechenarten und nutzt diese Fähigkeit dann auf vielfältige Weise. Wenn beispielsweise ein 10-jähriges Kind gebeten wird, einen Oktopus zu zeichnen, wird es normalerweise feststellen, dass dieser acht Beine hat. Aktuelle Versionen von KI-Modellen neigen dazu, sich zu verzetteln, wenn es um mathematische Abstraktionen und kontextbezogene Anwendungen geht. Diese Situation kann leicht geändert werden, wenn der Modellbauer diesem Fehler etwas Aufmerksamkeit schenkt, es aber auch andere Fehler gibt. Maschinelle Intelligenz unterscheidet sich von menschlicher Intelligenz, was bedeutet, dass Maschinen andere Fehler machen. Manchmal neigen Menschen dazu, von KI-Systemen getäuscht zu werden, ohne den Fehler zu bemerken. Wenn beispielsweise eine KI den Menschen erzählt, dass König Heinrich VIII. von England seine Frau getötet hat, werden sie es normalerweise glauben, weil sie diese Geschichte möglicherweise auch nicht verstehen. Menschen neigen dazu, davon auszugehen, dass die von der KI bereitgestellten Antworten wahr und richtig sind. Das schwierigste Problem für Benutzer generativer KI besteht darin, zu wissen, wann ein KI-System schief geht. Es wird angenommen, dass Maschinen weniger lügen können als Menschen, was sie noch gefährlicher macht. KI-Systeme können einige völlig genaue Daten ausschreiben und dann auf Vermutungen oder sogar Lügen zurückgreifen, oft ohne dass der Mensch weiß, was vor sich geht. Gebrauchtwagenhändler oder Pokerspieler wissen in der Regel, wann sie lügen, und die meisten sagen auch, wo, aber KI kann das nicht. Digitale Inhalte sind unendlich replizierbar, was viele KI-Modelle, die auf Knappheit basieren, überfordert. Generative KI wird diese Muster weiter durchbrechen. Generative KI wird einige Schriftsteller und Künstler arbeitslos machen und viele der wirtschaftlichen Regeln, denen wir folgen, auf den Kopf stellen. Werden werbefinanzierte Inhalte immer noch effektiv sein, wenn Anzeigen und Inhalte ständig neu gemischt und aktualisiert werden können? Wird der kostenlose Teil des Internets während der Generierung in eine Welt von „Bots, die auf Web-Anzeigen klicken“ verfallen? durch generative KI und unendlich repliziert? Unendlicher Reichtum könnte die digitale Wirtschaft zerstören. Wenn zum Beispiel unersetzliche Token kopiert werden könnten, würden die Leute dann weiterhin dafür bezahlen? Wenn das Schaffen von Kunst so einfach wäre, würde es dann immer noch respektiert werden, wenn alles als selbstverständlich angesehen würde? ? Anstatt zu versuchen, diese Fragen selbst zu beantworten, suchen Sie bei der generativen KI nach einer interessanten und seltsamen Antwort.
Das obige ist der detaillierte Inhalt vonChatGPT ist beliebt, aber 10 generative KI-Fehler sind besorgniserregend.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!