Heim > Artikel > Technologie-Peripheriegeräte > 10 Gründe, warum generative künstliche Intelligenz besorgniserregend ist
Generative KI-Modelle wie ChatGPT sind so erstaunlich, dass einige mittlerweile behaupten, dass KI nicht nur so gut wie Menschen, sondern oft auch intelligenter sein kann. Sie schaffen wundervolle Kunstwerke in umwerfenden Stilen. Sie können Texte voller Details, Ideen und Wissen schreiben. Die daraus resultierenden Artefakte sind so vielfältig und scheinbar so einzigartig, dass man kaum glauben kann, dass sie von einer Maschine stammen. Wir fangen gerade erst an, alles zu entdecken, was generative KI leisten kann.
Einige Beobachter glauben, dass diese neuen künstlichen Intelligenzen endlich die Schwelle des Turing-Tests überschritten haben. Andere argumentieren, dass die Schwelle nicht leicht überschritten wird, sondern einfach überbewertet wird. Dieses Meisterwerk ist jedoch so erstaunlich, dass eine Gruppe von Menschen bereits am Rande der Arbeitslosigkeit steht.
Sobald sich die Menschen jedoch daran gewöhnt haben, wird die Aura der generativen künstlichen Intelligenz verblassen. Eine Gruppe von Beobachtern stellt Fragen auf die richtige Art und Weise, was dazu führt, dass diese intelligenten Maschinen etwas Dummes oder Falsches sagen. Das ist heutzutage Mode geworden. Einige nutzten alte Logikbomben, die im Kunstunterricht der Grundschule beliebt waren, etwa die Frage nach einem Foto der nächtlichen Sonne oder eines Eisbären im Schneesturm. Andere stellten bizarre Anfragen, die die Grenzen des Kontextbewusstseins der KI, auch bekannt als gesunder Menschenverstand, aufzeigten. Interessierte können die Muster berechnen, an denen generative KI scheitert.
Dieser Artikel schlägt zehn Mängel oder Mängel der generativen künstlichen Intelligenz vor. Dieser Qing Neng könnte als etwas sauer aufgefasst werden, denn wenn die Maschinen die Macht übernehmen dürften, würde er seinen Job verlieren. Man kann sagen, dass ich ein kleiner Mensch bin, der das menschliche Team unterstützt, aber ich hoffe einfach, dass die Menschen im Kampf mit Maschinen Heldentum zeigen können. Sollten wir uns nicht alle ein wenig Sorgen machen? Wenn generative Modelle der künstlichen Intelligenz wie DALL-E und ChatGPT erstellt werden, erstellen sie zunächst einfach neue Muster aus den Millionen von Beispielen in ihrem Trainingssatz, wobei das Ergebnis eine Synthese aus Ausschneiden und Einfügen aus verschiedenen Quellen ist. Wenn ein Mensch dies tut, spricht man von Plagiat.
Obwohl Plagiate größtenteils ein Anliegen von Schulen sind, gilt das Urheberrecht auch für Märkte. Wenn eine Person die Arbeit einer anderen Person plagiiert, riskiert sie, vor Gericht verklagt zu werden und möglicherweise eine Geldstrafe in Millionenhöhe zu zahlen. Aber was ist mit künstlicher Intelligenz? Gelten für sie die gleichen Regeln?
Plagiat und Urheberrecht sind nicht die einzigen rechtlichen Probleme, die sich aus generativer KI ergeben. Anwälte denken sich bereits neue Fragen zur Prozessethik aus. Sollte beispielsweise ein Unternehmen, das ein Malprogramm entwickelt, Daten über das Malverhalten menschlicher Benutzer sammeln und diese Daten dann verwenden, um eine künstliche Intelligenz zu trainieren? Sollten Menschen für den Einsatz dieser kreativen Arbeit entlohnt werden? Der Erfolg der aktuellen Generation künstlicher Intelligenz beruht zu einem großen Teil auf der Erfassung von Daten. Was passiert also, wenn die Leute, die die Daten generiert haben, ein Stück vom Kuchen wollen? Welche sind fair? Was kann als legal angesehen werden?
KI ist besonders gut darin, die Art von Intelligenz zu imitieren, die erforderlich ist Der Mensch braucht viele Jahre, um sich zu entwickeln. Wenn Anthropologen einen unbekannten Künstler des 17. Jahrhunderts porträtieren oder neue Musik schreiben, die die Klangstrukturen einer fast vergessenen Renaissance nutzt, haben wir allen Grund, beeindruckt zu sein. Wir wissen, dass es jahrelanger Forschung bedarf, um dieses fundierte Wissen zu entwickeln. Wenn eine KI nach nur wenigen Monaten Training die gleichen Dinge tut, können die Ergebnisse erstaunlich genau und korrekt sein, es fehlen jedoch einige wichtige Zutaten.
Wenn eine gut trainierte Maschine die richtige alte Quittung in einem digitalen Schuhkarton voller Milliarden von Schallplatten finden könnte, könnte sie auch alles erfahren, was es über eine Dichterin wie Aphra Behn zu wissen gibt. Man könnte sogar glauben, dass Maschinen gebaut wurden, um die Bedeutung der Maya-Hieroglyphen zu entschlüsseln. KI scheint zwar die spielerische und unvorhersehbare Seite der menschlichen Kreativität zu imitieren, aber das können sie nicht wirklich. Gleichzeitig ist Unvorhersehbarkeit der Motor für kreative Innovationen. Eine Branche wie die Mode ist nicht nur von Veränderungen besessen, sondern wird auch von ihnen definiert. Künstliche Intelligenz hat zwar ihren Platz, aber auch die gute alte, hart erkämpfte menschliche Intelligenz hat ihren Platz.
Wenn es um Intelligenz geht, ist künstliche Intelligenz mechanischer und regelbasierter Natur. Sobald die KI einen Satz Trainingsdaten verarbeitet, erstellt sie ein Modell, das sich nicht wirklich ändert. Einige Ingenieure und Datenwissenschaftler stellen sich vor, KI-Modelle im Laufe der Zeit schrittweise umzuschulen, damit die Maschinen lernen, sich anzupassen. In den meisten Fällen besteht die Idee jedoch darin, einen komplexen Satz von Neuronen zu schaffen, die Wissen in einer festen Form kodieren. Konstanz hat ihren Platz und kann für bestimmte Branchen funktionieren. Die Gefahr bei KI besteht darin, dass sie für immer im Zeitgeist ihrer Trainingsdaten stecken bleibt. Was passiert, wenn wir Menschen so sehr auf generative KI angewiesen sind, dass wir kein neues Material mehr für Trainingsmodelle generieren können?
KI-Trainingsdaten müssen von irgendwoher kommen, und das tun wir nicht t Immer so sicher, was in einem neuronalen Netzwerk passieren wird. Was passiert, wenn eine KI persönliche Informationen aus ihren Trainingsdaten preisgibt? Schlimmer noch: Die Eindämmung der KI ist viel schwieriger, weil sie so flexibel konzipiert ist. Eine relationale Datenbank kann den Zugriff auf bestimmte Tabellen mit persönlichen Informationen beschränken. KI kann jedoch auf Dutzende verschiedene Arten Abfragen durchführen. Angreifer werden schnell lernen, die richtigen Fragen auf die richtige Art und Weise zu stellen, um an die gewünschten sensiblen Daten zu gelangen. Nehmen wir zum Beispiel an, dass der Längen- und Breitengrad eines bestimmten Vermögenswerts gesperrt ist. Ein geschickter Angreifer könnte den Standort nach der genauen Zeit fragen, zu der in ein paar Wochen die Sonne aufgeht. Eine pflichtbewusste KI wird versuchen zu antworten. Wir haben es noch nicht im Griff, der KI beizubringen, private Daten zu schützen.
Wenn Sie wissen, dass der früheste Mainframe-Programmierer mit dem Akronym GIGO oder erstellt wurde „Müll rein, Müll raus“, man kann verstehen, dass sie von da an den Kern des Computerproblems erkannten. Viele Probleme mit KI sind auf schlechte Trainingsdaten zurückzuführen. Wenn der Datensatz ungenau oder verzerrt ist, werden die Ergebnisse dies mit Sicherheit widerspiegeln.
Die Hardware im Herzen der generativen KI mag so logikgesteuert sein wie Spock, aber die Menschen, die die Maschinen bauen und trainieren, sind es nicht. Es hat sich gezeigt, dass Voreingenommenheit und Bevorzugung Einzug in KI-Modelle halten. Vielleicht hat jemand verzerrte Daten verwendet, um das Modell zu erstellen. Möglicherweise haben sie Überschreibungen hinzugefügt, um zu verhindern, dass das Modell bestimmte wichtige Fragen beantwortet. Vielleicht geben sie fest codierte Antworten ein, und dann wird es schwierig, sie zu erkennen. Die Menschheit hat viele Wege gefunden, um sicherzustellen, dass künstliche Intelligenz ein hervorragendes Vehikel für unsere schädlichen Überzeugungen wird.
Wir verzeihen KI-Modellen leicht Fehler, weil sie verwendet werden im übrigen In vielerlei Hinsicht gut gemacht. Allerdings sind viele Fehler schwer vorhersehbar, weil künstliche Intelligenz anders denkt als der Mensch. Viele Benutzer der Text-zu-Bild-Funktion stellten beispielsweise fest, dass die KI ziemlich einfache Dinge falsch gemacht hat, wie zum Beispiel beim Rechnen. Der Mensch lernt in der Grundschule Grundrechenarten und wir nutzen diese Fähigkeit dann auf vielfältige Weise. Bitten Sie ein 10-jähriges Kind, eine Skizze eines Oktopus zu zeichnen, und das Kind wird mit ziemlicher Sicherheit feststellen, dass er acht Beine hat. Aktuelle Versionen der künstlichen Intelligenz neigen dazu, sich zu verzetteln, wenn es um abstrakte und kontextbezogene Anwendungen der Mathematik geht. Dies könnte leicht geändert werden, wenn der Modellbauer diesem Fehltritt etwas Aufmerksamkeit widmen würde, aber es gibt noch andere Fehltritte. Maschinelle Intelligenz unterscheidet sich von menschlicher Intelligenz, was bedeutet, dass auch maschinelle Dummheit anders sein wird.
Manchmal neigen wir Menschen dazu, die Lücken der künstlichen Intelligenz zu füllen, ohne es zu merken. Wir ergänzen fehlende Informationen oder ergänzen Antworten. Wenn uns eine KI sagen würde, dass Heinrich VIII. der König war, der seine Frau ermordet hat, würden wir das nicht in Frage stellen, weil wir selbst diese Geschichte nicht verstehen. Wir gehen einfach im Voraus davon aus, dass die KI Recht hat, so wie wir es auch tun, wenn wir vor einem charismatischen Star jubeln. Wenn eine Aussage sicher klingt, ist der menschliche Geist oft bereit, sie als wahr und richtig zu akzeptieren.
Das schwierigste Problem für Benutzer generativer KI besteht darin, zu wissen, wann die KI falsch liegt. Maschinen können nicht wie Menschen lügen, aber das macht sie gefährlicher. Sie können ein paar vollkommen genaue Daten produzieren und dann in Spekulationen oder sogar regelrechte Verleumdungen verfallen, ohne dass es jemand merkt. Gebrauchtwagenhändler oder Pokerspieler wissen in der Regel, wann sie betrügen, und die meisten verfügen über Beweise, die ihr diffamierendes Verhalten entlarven. Künstliche Intelligenz jedoch nicht.
Digitale Inhalte sind unendlich reproduzierbar, was viele auf Knappheit basierende Wirtschaftsmodelle belastet hat. Generative KI wird weitere dieser Muster durchbrechen. Generative KI wird einige Schriftsteller und Künstler arbeitslos machen; sie wird auch viele der wirtschaftlichen Regeln auf den Kopf stellen, auf die wir zum Überleben angewiesen sind. Können werbefinanzierte Inhalte noch eine Rolle spielen, wenn sowohl Werbung als auch Inhalte endlos neu gemischt und neu gemischt werden können? Wird der kostenlose Teil des Internets auf eine Welt reduziert, in der Roboter auf Anzeigen auf Webseiten klicken, die alle von generativer KI erstellt und unendlich reproduziert werden?
Dieser einfache Überfluss könnte jeden Winkel der Wirtschaft stören. Wenn diese Token für immer repliziert werden könnten, würden die Leute dann weiterhin für nicht replizierbare Token bezahlen? Wenn es so einfach wäre, Kunst zu machen, würde es dann trotzdem respektiert werden? Wird es trotzdem etwas Besonderes sein? Wenn es nichts Besonderes wäre, würde es irgendjemanden interessieren? Verliert alles an Wert, wenn es als selbstverständlich angesehen wird? Meinte Shakespeare das, als er sagte: „Pfeile und Schleudern eines unvorstellbaren Glücks“? Versuchen wir nicht, diese Frage selbst zu beantworten. Wenden wir uns der generativen künstlichen Intelligenz zu, um Antworten zu finden. Die Antwort wird interessant, seltsam und letztendlich auf mysteriöse Weise in einer Unterwelt zwischen richtig und falsch gefangen sein.
Quelle: www.cio.com
Das obige ist der detaillierte Inhalt von10 Gründe, warum generative künstliche Intelligenz besorgniserregend ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!