Heim > Artikel > Hardware-Tutorial > KI-Systeme wie GPT-4 und Gemini, die Ringkameraaufnahmen falsch interpretieren, könnten zu falschen Polizeirufen führen, insbesondere in Minderheitenvierteln
Da immer mehr Hausbesitzer auf intelligente Sicherheitslösungen wie die Ringkameras von Amazon zurückgreifen (derzeit 149,99 $ bei Amazon), wird KI eine immer größere Rolle bei der Sicherheit von Häusern spielen. Eine neue Studie wirft jedoch Bedenken auf, ob diese zukünftigen KI-Systeme möglicherweise zu schnell die Polizei rufen, selbst wenn nichts Kriminelles passiert.
Forscher des MIT und der Penn State analysierten 928 öffentlich verfügbare Ring-Überwachungsvideos, um zu sehen, wie KI-Modelle wie GPT-4, Claude und Gemini Entscheidungen über die Kontaktaufnahme mit Strafverfolgungsbehörden treffen. Die Ergebnisse zeigten, dass 39 % der Videos Obwohl es sich um tatsächliche kriminelle Aktivitäten handelte, wurde dies von den KI-Modellen oft nicht erkannt. In den meisten Fällen gaben die Modelle entweder an, dass keine Straftat vorlag, oder gaben unklare Antworten. Dennoch empfahlen sie in manchen Situationen ein Eingreifen der Polizei.
Eine der wichtigsten Erkenntnisse der Studie war, dass die KI-Modelle je nach Nachbarschaft unterschiedlich reagierten. Auch wenn der KI keine expliziten Angaben zu den Gebieten gemacht wurden, war es wahrscheinlicher, dass sie vorschlug, die Polizei in Vierteln zu rufen, in denen Mehrheitsminderheiten leben. In diesen Gebieten empfahl Gemini in fast 65 % der Fälle, in denen es zu Straftaten kam, polizeiliche Maßnahmen, verglichen mit etwas mehr als 51 % in überwiegend weißen Vierteln. Darüber hinaus stellte die Studie fest, dass 11,9 % der polizeilichen Empfehlungen von GPT-4 auch dann erfolgten, wenn im Filmmaterial keine kriminellen Aktivitäten vermerkt waren, was Fragen zu Fehlalarmen aufwirft.
Interessant ist, dass Amazon auch KI-gesteuerte Funktionen für seine Ring-Systeme erforscht hat, darunter fortschrittliche Tools wie Gesichtserkennung, emotionale Analyse und Verhaltenserkennung, wie kürzlich vorgeschlagen Patente. In Zukunft könnte KI eine viel größere Rolle bei der Identifizierung verdächtiger Aktivitäten oder Personen spielen und die Leistungsfähigkeit unserer Heimsicherheitssysteme weiter steigern.
Für Hausbesitzer, die Ring-Kameras verwenden, besteht kein unmittelbarer Grund zur Sorge. Derzeit verfügen Ring-Kameras über begrenzte KI-Funktionen (hauptsächlich Bewegungserkennung) und treffen solche Entscheidungen nicht selbstständig. Die in der Studie verwendeten fortschrittlichen KI-Modelle wie GPT-4 und Claude wurden extern zur Analyse von Ring-Filmmaterial eingesetzt und nicht in die Kameras selbst integriert. Der Kern der Untersuchung besteht darin, dass zukünftige KI-Updates zwar dazu beitragen können, Ihr Zuhause besser zu überwachen, es aber auch zu Fehlern kommen kann – Fehler, die behoben werden müssen, bevor diese Funktionen in kommenden Ring-Kameras zum Mainstream werden.
Sehen Sie sich hier eine weitere Studie an, die sich mit der Voreingenommenheit der KI gegenüber afroamerikanischen englischen Dialekten befasst.
Das obige ist der detaillierte Inhalt vonKI-Systeme wie GPT-4 und Gemini, die Ringkameraaufnahmen falsch interpretieren, könnten zu falschen Polizeirufen führen, insbesondere in Minderheitenvierteln. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!