Das Rennen um die fortschrittlichste Argumentation LLM heizen sich auf und der Wettbewerb ist heftiger als je zuvor. Deepseek startete es mit Deepseek R1, gefolgt von OpenAIs O3-Mini, und jetzt hat Google eine Kraftpaket-Aufstellung eingetragen: Gemini 2.0 Flash, Flash Lite, Pro und zwei experimentelle Modelle-Flash 2.0 Denk und Denken mit Apps. Während Flash-Modelle bereits auf den Weg in öffentliche Tests gehen, können die experimentellen Argumenten und App-Integration neu definieren, wodurch O3-Mini und Deekseek-R1 herausfordern. In diesem Blog werden wir uns mit diesen neuen Modellen, ihren einzigartigen Funktionen und ihrem Wettbewerbsvorteil eintauchen. Lassen Sie uns eintauchen!
Inhaltsverzeichnis- Was ist Gemini 2.0? Experimental
- Gemini 2.0 Flash Thinking Experimental
- Gemini 2.0 Flash Thinking Experimental with Apps
- Gemini 2.0 Models: Benchmark Comparison
- Frequently Asked Questions
- Was ist Gemini 2.0?
- Gemini 2.0 ist der Dach der neuesten multimodalen Modelle von Google. Diese Modelle wurden von Google entwickelt, um die Anforderungen der Agenten -Ära für hocheffiziente Arbeitspferdmodelle mit geringer Latenz und verbesserter Leistung in Sicht zu halten. In der Zweitreihe Gemini 2.0 wurden bisher die folgenden Modelle veröffentlicht:
- Gemini 2.0 Flash
- Gemini 2.0 Flash Lite
Zusammen mit diesen leistungsstarken Modellen hat Google auch heimlich zwei weitere Modelle veröffentlicht, die sich derzeit in ihrer experimentellen Phase befinden. Die beiden Modelle sind:
- Gemini 2.0 Flash Thinking Experimental
- Gemini 2.0 Flash Thinking Experimental mit Apps
- Diese experimentellen Modelle sind bei weitem die aufregendsten Modelle jedes KI -Unternehmens. Sie bieten nicht nur ein komplexes Denken und logisches Denken an, sondern arbeiten auch mit Googles am häufigsten verwendeten Apps wie YouTube, Maps und Search.
Erforschen wir also jede dieser neuesten Veröffentlichungen von Google nacheinander.
- Gemini 2.0 Flash
- Die Flash-Modelle sind für hochvolumige, hochfrequente Aufgaben, Priorisierung von Geschwindigkeit und Effizienz ausgelegt. Gemini 2.0 Flash ist jetzt offen für alle erhältlich, wodurch es für Produktionsanwendungen geeignet ist. Hier sind die Schlüsselmerkmale dieses Modells:
-
- Es kann schwere Aufgaben erledigen und multimodales Denken mit einem riesigen Kontextfenster von 1 Million Token ausführen.
- Es ist in der Gemini -App und über die Gemini -API in Google AI Studio und Vertex AI zugänglich.
- Das Modell ist vergleichbar mit OpenAIs GPT-4O, Deepseeks V3 und Qwen-2.5 mit seiner Geschwindigkeit und Effizienz bei den Handhabungsaufgaben.
Verfügbarkeit: Dieses Modell ist derzeit nur für Gemini Advanced -Abonnenten in der Gemini -App verfügbar, während es im Google AI -Studio für alle kostenlos verfügbar ist. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.
Testen wir es jetzt in der Gemini -App.
Eingabeaufforderung: “Lesen Sie den Artikel unter https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/, um den Prozess der Erstellung einer Vektordatenbank für Wikipedia-Daten zu verstehen. Geben Sie dann eine kurze Zusammenfassung der wichtigsten Schritte an. “
Antwort:
Bewertung:
Das Modell ist großartig darin, die Web -Links zu lesen. Es erzeugt eine klare Zusammenfassung und listet dann die im Blog behandelten breiten Schritte auf. Daher erweist Gemini Flash 2.0 ein schnelles und effizientes Modell, das schnell mit dem Zugriff auf das Internet für die Lösung von Abfragen zugreift. Es eignet sich hervorragend für tägliche inhaltsbezogene Aufgaben sowie für die Bildanalyse und -generation.
Gemini 2.0 Flash Lite
Das Flash-Lite-Modell ist im Hinblick auf die Kostenwirksamkeit ausgelegt. Es baut auf seinem Vorgänger 1,5 Blitz auf und bietet eine spürbare Qualitätsverbesserung und hält gleichzeitig die gleiche beeindruckende Geschwindigkeit und Erschwinglichkeit bei. Hier sind einige seiner Höhepunkte:
- 2.0 Flash Lite ist eine ausgezeichnete Wahl für Entwickler, die nach einer Balance zwischen Leistung und Budget suchen.
- Das Modell verfügt über ein 1 -Million -Token -Kontextfenster und unterstützt multimodale Eingaben, sodass es eine Vielzahl von Aufgaben verarbeiten kann.
- Es ist derzeit in der öffentlichen Vorschau, die über die Gemini -API in Google AI Studio und Vertex AI zugänglich ist. Dies ermöglicht es Entwicklern, Flash Lite in ihre Workflows zu experimentieren und zu integrieren.
Verfügbarkeit: Gemini 2.0 Flash Lite, ist kostenlos in Google AI Studio verfügbar. Es ist auch in der Vertex -KI erhältlich, aber in der Gemini -App noch nicht verfügbar.
So greifen Sie auf Gemini 2.0 Flash Lite
zu- Melden Sie sich auf der Webseite an.
- Klicken Sie nach Abschluss auf "Eingabeaufforderung erstellen" im linken Seitenfeld.
- Wählen Sie unter dem Abschnitt „Modell“ unter dem Abschnitt „Modell“ „Gemini 2.0 Flash Lite 02-05“.
Eingabeaufforderung: " Erklären Sie mir das folgende Bild in einfachen Worten."
Antwort:
„Dieses Bild zeigt einen AI -Agenten, der mit der„ Welt “und den Benutzern interagiert. Hier ist eine Aufschlüsselung:
- Welt: Dies repräsentiert die Umgebung, in der die KI arbeitet, einschließlich Internet, Betriebssysteme, API -Server, Hardware und der physischen Welt.
- AI -Agent: Das zentrale Feld repräsentiert den AI -Agenten, der Eingaben von Benutzern erhält und mit der Welt interagiert. Es besteht aus mehreren Teilen:
- Benutzer: Menschen, die mit der AI interagieren. Sie liefern Eingaben in die AI.
- llm (großes Sprachmodell): Das Gehirn der KI. Es empfängt Informationen, verarbeitet sie und trifft Entscheidungen.
- Tools: Dieser Teil enthält verschiedene Tools, mit denen die KI mit der Welt interagieren kann (Website -APIs, Anwendungen, Shell, Datenbank usw.)
- Speicher: Der Speicher der KI, in dem sie Informationen gespeichert und abruft (wie Daten in RAM, SQL -Datenbanken und Vektorien).
- Aktion: Das Aktion-Aufbau-Modul der KI führt die KI aus, die die vom LLM generierten Anweisungen ausführen.
- Wie es funktioniert:
- Benutzer Eingabe in die AI.
- Die llm verarbeitet diese Eingabe.
- Die llm verwendet Speicher und Tools , um zu generieren und eine zu generieren und eine AN -Tools zu generieren und eine AN -Tools zu generieren, und ein ANTERGABET Aktion .
- Tools Wirken Sie auf die Außenseite Welt , dann ist der llm Speicher .
- Dieser Vorgang wiederholt sich. ”
- Dieses neueste Modell hat ein massives 2 -Millionen -Token -Kontextfenster, sodass es große Informationen verarbeiten und verstehen kann.
- Es verfügt über die eindeutige Fähigkeit, Tools wie Google Search aufzurufen und Code direkt auszuführen, wodurch sein Problemlösungspotential erheblich erweitert wird.
- Derzeit wird in der experimentellen Phase Gemini 2.0 Pro Experimental verfeinert und vor einer breiteren Freisetzung getestet.
Verfügbarkeit: Auch dieses Modell ist nur bezahlten Benutzern von Gemini zur Verfügung, die in der Gemini -App erweitert sind. In der Zwischenzeit können Benutzer im Google AI Studio und der Vertex AI kostenlos darauf zugreifen. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine kostenlose einmonatige Testversion bietet), können Sie es in Google AI Studio versuchen.
Erfahren Sie mehr: Google Gemini 2.0 Pro Experimental besser als OpenAI O3-Mini?
Schauen wir uns an, wie dieses Modell ausgeführt wird.
Eingabeaufforderung: „Lösen Sie dieses Puzzle und geben Sie mir die Tabelle, die aus der Lösung besteht.“
Dieses Puzzle wurde von der folgenden Website bezogen.
Antwort:
diese Werte auf der Website platzieren:
Bewertung:
Das Modell erklärt seine Lösung und folgt es mit einer Lösungstabelle, wie aufgefordert. Es erzeugte die richtigen Antworten, die auf den angegebenen Informationen basieren, obwohl es an einigen Stellen falsche Farb- und Währungswerte angenommen hat. Das Endergebnis ist jedoch weiterhin unberührt, da diese Werte bei der Gesamtreaktion keine Rolle spielten. Unnötig zu sagen, Gemini 2.0 Pro Experimental kombiniert leistungsstarke Argumentation mit Geschwindigkeit und Genauigkeit.
Gemini 2.0 Flash Thinking Experimental
Das experimentelle Modell des Flash -Denkens ist eine aufregende Entwicklung, die die Geschwindigkeit und Effizienz von Gemini 2.0 Flash mit verbesserten Argumentationsfähigkeiten kombiniert. Dies ermöglicht es, nicht nur Informationen schnell zu verarbeiten, sondern auch logisches Denken auf komplexe Probleme anzuwenden.
- Derzeit ist dieses Modell den Benutzern der Gemini -App zur Verfügung und bietet nur einige der Benutzer frühzeitig zugänglich auf die erweiterten Funktionen.
- Als experimentelles Modell befindet es sich noch in der Entwicklung, weist jedoch auf die Zukunft von LLMs hin, die Probleme effektiver stellen und lösen können.
Verfügbarkeit: Das Gemini 2.0 -Flash -Modell ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced, in der Gemini -App. In Google AI Studio ist es jedoch kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine einmonatige kostenlose Testversion bietet), können Sie es in Google AI Studio versuchen.
Jetzt sehen wir sehen, was dieses Modell tun kann.
Eingabeaufforderung: „Sie gehen in ein Zimmer und sehen ein Bett. Auf dem Bett befinden sich zwei Hunde, vier Katzen, eine Giraffe, fünf Kühe und eine Ente. Es gibt auch drei Stühle und einen Tisch. Wie viele Beine sind auf dem Boden? ”
Antwort:
" Lassen Sie uns dies aufschlüsseln:
- Dinge auf dem Bett: Hunde, Katzen, Giraffe, Kühe, Ente. Diese Tiere sind auf dem Bett, so dass ihre Beine nicht auf dem Boden liegen.
- Dinge im Raum (und wahrscheinlich auf dem Boden, sofern nicht anders angegeben):
- Stühle: Stühle haben Beine, und sie befinden sich in der Regel auf dem Boden. Jeder Stuhl hat 4 Beine und es gibt 3 Stühle.
- Tabelle: Tabellen haben Beine und sie befinden sich normalerweise auf dem Boden. Tabellen haben normalerweise 4 Beine, und es gibt 1 Tabelle.
- Sie: Sie sind in den Raum gegangen. Vermutlich stehen oder gehen Sie und Ihre Beine befinden sich auf dem Boden. Sie haben 2 Beine.
Lassen Sie uns die Beine auf dem Boden zählen:
- Stühle: 3 Stühle * 4 Beine/Stuhl = 12 Beine
- Tabelle: 1 Tabelle * 4 Beine/Tabelle = 4 Beine
- Sie: 1 Person * 2 Beine/Person = 2 Beine
Gesamtbeine auf dem Boden: 12 4 2 = 18 Beine
Daher befinden sich 18 Beine auf dem Boden. “
Bewertung:
Die richtige Antwort auf diese Frage ist 22, die 12 Beine mit 3 Stühlen, 4 Beinen des Tisches, 4 Beine des Bettes und 2 Beine der Person enthält. Gemini 2.0 Flash Experimental Thinking Model zeigt brillantes Denken und berücksichtigt die einzelnen Beine (etwas, das die meisten LLMs vermissen). Es hat jedoch vergessen, in den Beinen des Bettes zu zählen. Obwohl großartig, kann das Modell im logischen Denken besser sein.
Gemini 2.0 Flash Thinking Experimental mit Apps
Aufbau auf dem experimentellen Modell des Flash -Denkens fügt das Flash -Thinking -Experimental mit Apps -Version eine entscheidende Interaktivitätsschicht hinzu: die Fähigkeit, mit externen Anwendungen zu interagieren. Folgendes macht es zu einem mächtigen Modell:
- In der Integration in externe Apps kann das Modell nicht nur Grund, sondern auch Aktionen in verschiedenen Apps ergreifen. Dies eröffnet eine Welt der Möglichkeiten für die Automatisierung komplexer Workflows.
- Das Modell zeigt das Potenzial für LLMs, tief in unser digitales Leben integriert zu werden und nahtlos mit den Tools zu interagieren, die wir täglich verwenden.
Verfügbarkeit: Gemini 2.0 Flash ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced. In der Zwischenzeit ist es im Google AI Studio kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.
Also testen wir es.
Eingabeaufforderung: „Erzählen Sie mir von allen möglichen Straßenrouten, die ich von meinem Platz zum Bahnhof Neu -Delhi einnehmen kann. Ich bin derzeit hier: https://maps.app.goo.gl/xciqxpugasxtxytk8 ”
Antwort:
“ Hier sind die möglichen Straßenstrecken zum Bahnhof Neu-Delhi von Ihrem derzeitigen Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien.
Hier finden Sie die möglichen Straßenrouten zum Bahnhof Neu-Delhi von Ihrem Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien:
Route 1: über NH 48
- Entfernung: 16,4 Meilen
- Dauer: ungefähr 49 Minuten
- Zusammenfassung: Diese Route folgt in erster Linie NH 48 .
- MAP URL
Dies ist derzeit die einzige Route. Wenn Sie alternative Routen untersuchen möchten, können Sie Kriterien angeben, z. Bewertung:
In nur wenigen Sekunden denkt das Modell durch die Eingabeaufforderung, greift auf den Ort zu, den ich über die Karte geteilt habe, und schlägt für mich den bestmöglichen Weg vor. Es gibt mir die Details der Route und teilt auch einen Kartenlink für meine Referenz. Eine solche Funktion kann eine großartige Ergänzung sein, wenn Sie nach Orten in einer neuen Stadt suchen oder Adressen schnell finden. Diese LLM eignet sich auch hervorragend zum Transkribieren oder Zusammenfassen langer YouTube -Videos. Obwohl es bei der Arbeit mit YouTube -Shorts auf Fehler geht.
Dieses Modell kombiniert die Leistung von Argumentation, Geschwindigkeit und externer App -Zugänglichkeit - alles in einem. Solche Fähigkeiten deuten auf eine starke Präsenz der agentenischen Natur hin, die wir mit diesen Denkmodellen bald sehen werden.
Gemini 2.0 Modelle: Benchmark -Vergleich
Jetzt, da wir mit allen neuesten Modellen von Google zusammengearbeitet haben, schauen wir uns schnell an, wie diese Modelle an verschiedenen Benchmarks abschneiden. Die Details zum Denken experimenteller Modelle sind noch nicht verfügbar, daher werden wir nur mit den restlichen drei Modellen zusammenarbeiten: Gemini 2.0 Flash, Flash Lite und Pro.
Capability Benchmark Gemini 2.0 Flash-Lite (Public Preview) Gemini 2.0 Flash (GA) Gemini 2.0 Pro Experimental General MMLU-Pro 71.6% 77.6% 79.1% Code LiveCodeBench (v5) 28.9% 34.5% 36.0% Code Bird-SQL (Dev) 57.4% 58.7% 59.3% Reasoning GQPA (diamond) 51.5% 60.1% 64.7% Factuality SimpleQA 21.7% 29.9% 44.3% Factuality FACTS Grounding 83.6% 84.6% 82.8% Multilingual Global MMLU (Lite) 78.2% 83.4% 86.5% Math MATH 86.8% 90.9% 91.8% Math HiddenMath 55.3% 63.5% 65.2% Long-context MRCR (1M) 58.0% 70.5% 74.7% Image MMMU 68.0% 71.7% 72.7% Audio CoVoST2 (21 lang) 38.4% 39.0% 40.6% Video EgoSchema (test) 67.2% 71.1% 71.9% Quelle: Google DeepMind Blog
Gemini 2.0 Modelle: Features Vergleich
Jedes neues Modell hat seine eigene einzigartige Funktionen. In der folgenden Tabelle habe ich die Funktionen und Anwendungen aller Modelle aufgelistet, die wir in diesem Blog untersucht haben.
Model Context Window Multimodal Availability Applications Gemini 2.0 Flash 1 million Yes Generally available (incl. free in AI Studio) Content summarization, data extraction, quick classification, basic question answering, high-throughput API services, real-time translation Gemini 2.0 Flash Lite 1 million Yes Public preview Mobile app features, basic chatbots, cost-sensitive document processing, educational tools for basic tasks, internal knowledge base lookup Gemini 2.0 Pro Experimental 2 million Yes Experimental Complex code generation, advanced data analysis, research assistants, sophisticated content creation, tool-integrated workflows (e.g., booking systems, CRM integrations), long-form content analysis Gemini 2.0 Flash Thinking N/A Yes Gemini app (Paid) Real-time decision-making, fast-paced problem solving, dynamic pricing, fraud detection, fast response bots with enhanced reasoning, live customer support escalation Gemini 2.0 Flash Thinking w/ Apps N/A Yes Gemini app (Paid) Complex automated workflows, interactive voice assistants with app actions, smart home automation, Robotic Process Automation (RPA), orchestration of AI services, automated scheduling and task management Schlussfolgerung
Googles Gemini 2.0-Line-up markiert einen großen Schritt in den Funktionen des generativen KI-Modells und bietet verschiedene Modelle, die auf Geschwindigkeit, Effizienz und fortschrittliche Argumentation zugeschnitten sind. Während Gemini 2.0 Flash und Flash Lite auf Hochdurchsatz- und kostengünstige Anwendungsfälle richten, sieht Gemini 2.0 Pro Experimental für ein lang Kontextverständnis und die Integration von Werkzeugen vielversprechend aus. Die experimentellen Modelle, insbesondere Flash -Denken und Blitz denken mit Apps, führen Möglichkeiten für logisches Denken und nahtlose App -Interaktionen ein.
Mit Gemini 2.0 stellt Google die Voraussetzungen für Genai-Modelle, die kontextbewusster, multimodal und tief in unsere digitalen Ökosysteme integriert sind. Wenn sich diese Modelle weiterentwickeln, werden ihre Auswirkungen auf KI-gesteuerte Workflows, Inhaltsgenerierung und Echtzeit-Entscheidungsfindung nur wachsen.
häufig gestellte Fragen
Q1. Was ist Gemini 2.0?a. Gemini 2.0 ist die neueste Familie von Gen-AI-Modellen von Google, die für verbesserte Argumentation, multimodale Verarbeitung und hocheffiziente Aufgaben entwickelt wurde. Es enthält Flash, Flash Lite, Pro und zwei experimentelle Modelle - Flash -Denken und Blitz denken mit Apps.
Q2. Wie vergleichen sich Gemini 2.0 mit OpenAIs O3-Mini und Deepseek R1?a. Gemini 2.0-Modelle, insbesondere die Flash- und Pro-Serie, konkurrieren direkt mit OpenAIs O3-Mini und Deepseek R1 in Bezug auf Argumentation, Effizienz und Werkzeugintegration. Während Gemini 2.0 Flash sich auf Geschwindigkeit und Kosteneffizienz konzentriert, experimentelle Gemini 2.0 Pro Experimental in komplexem Denken und Codieren.
Q3. Was ist der Unterschied zwischen Gemini 2.0 Flash und Flash Lite?a. Die wichtigsten Unterschiede zwischen Gemini 2.0 Flash und Flash Lite sind wie folgt:
Flash-Denken experimentell: verbessert das logische Denken und die Problemlösung. Wie kann ich auf Gemini 2.0 -Modelle zugreifen?
Gemini 2.0 Flash: für Hochdurchsatzaufgaben, die Geschwindigkeit, Effizienz und 1M-Token-Kontextfenster anbieten.
Q4. Wie viele experimentelle Modelle gibt es in Gemini 2.0? a. Derzeit gibt es 2 experimentelle Modelle in Gemini2.0:
a. Sie können auf diese Modelle auf folgende Weise zugreifen: Gemini 2.0 Flash:
In Google AI Studio (kostenlos) und Vertex AI verfügbar. Benutzer.
Das obige ist der detaillierte Inhalt vonWie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Laut einem neuen Bericht der Apollo Research stellt die nicht kontrollierte interne Bereitstellung fortschrittlicher KI -Systeme erhebliche Risiken dar. Dieser mangelnde Aufsicht, der bei großen KI -Unternehmen weit verbreitet ist

Traditionelle Lügendetektoren sind veraltet. Wenn man sich auf den vom Armband verbundenen Zeiger stützt, ist ein Lügendetektor, der die lebenswichtigen Anzeichen und physikalischen Reaktionen des Probanden ausdruckt, bei der Identifizierung von Lügen nicht genau. Aus diesem Grund werden die Erkennungsergebnisse normalerweise nicht vom Gericht verabschiedet, obwohl es dazu geführt hat, dass viele unschuldige Menschen inhaftiert wurden. Im Gegensatz dazu ist künstliche Intelligenz eine leistungsstarke Datenmotor, und ihr Arbeitsprinzip besteht darin, alle Aspekte zu beobachten. Dies bedeutet, dass Wissenschaftler künstliche Intelligenz auf Anwendungen anwenden können, die auf verschiedene Weise Wahrheit suchen. Ein Ansatz besteht darin, die Vitalzeichenreaktionen der Person zu analysieren, die wie ein Lügendetektor befragt wird, jedoch mit einer detaillierteren und präziseren vergleichenden Analyse. Ein anderer Ansatz ist die Verwendung von Sprachmarkup, um zu analysieren, was Menschen tatsächlich sagen und Logik und Argumentation verwenden. Wie das Sprichwort sagt, züchtet eine Lüge eine andere Lüge und schließlich

Die Luft- und Raumfahrtindustrie, ein Pionier der Innovation, nutzt KI, um ihre komplizierten Herausforderungen zu bewältigen. Die zunehmende Komplexität der Modern Aviation erfordert die Automatisierung und Echtzeit-Intelligenzfunktionen von KI für verbesserte Sicherheit, reduzierter Oper

Die schnelle Entwicklung der Robotik hat uns eine faszinierende Fallstudie gebracht. Der N2 -Roboter von Noetix wiegt über 40 Pfund und ist 3 Fuß groß und soll in der Lage sein, sich zurückzufassen. Der G1 -Roboter von Unitree wiegt etwa doppelt so groß wie der N2 und ist etwa 4 Fuß hoch. Es gibt auch viele kleinere humanoide Roboter, die am Wettbewerb teilnehmen, und es gibt sogar einen Roboter, der von einem Fan vorangetrieben wird. Dateninterpretation Der Halbmarathon zog mehr als 12.000 Zuschauer an, aber nur 21 humanoide Roboter nahmen teil. Obwohl die Regierung darauf hinwies, dass die teilnehmenden Roboter vor dem Wettbewerb eine "intensive Ausbildung" durchführten, haben nicht alle Roboter den gesamten Wettbewerb abgeschlossen. Champion - Tiangong ult entwickelt vom Peking Humanoiden Roboter Innovation Center

Künstliche Intelligenz in ihrer aktuellen Form ist nicht wirklich intelligent. Es ist geschickt darin, vorhandene Daten nachzuahmen und zu verfeinern. Wir schaffen keine künstliche Intelligenz, sondern künstliche Schluss

In einem Bericht wurde festgestellt, dass eine aktualisierte Schnittstelle im Code für Google Photos Android Version 7.26 versteckt wurde. Bei jedem Anzeigen eines Fotos werden am unteren Bildschirmrand eine Reihe neu erkannter Vorschaubildesansichten angezeigt. In den neuen Miniaturansichten des Gesichts fehlen Namensschilds. Ich vermute daher, dass Sie einzeln auf sie klicken müssen, um weitere Informationen zu jeder erkannten Person anzuzeigen. Im Moment bietet diese Funktion keine anderen Informationen als diejenigen, die Google Photos in Ihren Bildern gefunden haben. Diese Funktion ist noch nicht verfügbar, daher wissen wir nicht, wie Google sie genau verwendet. Google kann Miniaturansichten verwenden, um mehr Fotos von ausgewählten Personen zu finden, oder kann für andere Zwecke verwendet werden, z. B. für die Bearbeitung der Person. Lassen Sie uns warten und sehen. Wie vorerst

Die Verstärkungsfonetuning hat die KI -Entwicklung erschüttert, indem sie Modelle unterrichten, um sich auf der Grundlage des menschlichen Feedbacks anzupassen. Es mischt beaufsichtigte Lernfundamente mit belohnungsbasierten Updates, um sie sicherer, genauerer und wirklich hilfreicher zu machen

Wissenschaftler haben ausführlich menschliche und einfachere neuronale Netzwerke (wie die in C. elegans) untersucht, um ihre Funktionalität zu verstehen. Es stellt sich jedoch eine entscheidende Frage: Wie passen wir unsere eigenen neuronalen Netze an, um neben neuartigen Ai S effektiv zu arbeiten


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

MinGW – Minimalistisches GNU für Windows
Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

mPDF
mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

DVWA
Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software
