Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Google StyleDrop übertrifft MidJourney in puncto Steuerbarkeit und der ehemalige CTO von GitHub nutzt KI, um die Programmierung zu untergraben

Google StyleDrop übertrifft MidJourney in puncto Steuerbarkeit und der ehemalige CTO von GitHub nutzt KI, um die Programmierung zu untergraben

PHPz
PHPznach vorne
2023-06-10 21:51:43894Durchsuche

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Der von Alpha Commune veröffentlichte AI Venture Capital Weekly Report konzentriert sich auf neue Trends in der künstlichen Intelligenz, die durch große Sprachmodelle und generative KI repräsentiert werden. Alpha Commune hofft, außergewöhnliche Unternehmer (AlphaFounders) zu entdecken und in sie zu investieren, und ist davon überzeugt, dass außergewöhnliche Unternehmer eine große treibende Kraft in Technologie, Wirtschaft und Gesellschaft sind und die Richtung des Risikokapital-Ökosystems bestimmen.

Diese Woche haben wir folgende neue Trends und Tendenzen im Bereich KI beobachtet:

1. Die visuelle Generierung und Multimodalität der KI schreitet rasant voran: Google StyleDrop ist in Bezug auf Stilkonsistenz und Steuerbarkeit zu einem neuen „SOTA-Modell“ geworden, und PandaGPT, das von Cambridge und Tencent eingeführt wurde, vereint 6 Modalitäten.

2. KI-Programmierfunktionen stehen im Mittelpunkt bahnbrechender Entwicklungen: Google brachte das neue DIDACT-Programmierframework auf den Markt, der Programmierassistent Baidu Comate debütierte und der ehemalige CTO von Github gründete ein Unternehmen zum Aufbau eines Billionen-Parameter-Großmodells im Bereich Programmierung.

3. Verschiedene neue Alignment-Methoden wollen RLHF untergraben: Direct Preference Optimization (DPO) vereinfacht die Präferenz-Learning-Pipeline, und Stanford und Google DeepMind haben einfachere und effektivere Werte-Alignment-Methoden entwickelt.

4. Neue Forschungen zur künstlichen Intelligenz machen Sortieralgorithmen um 70 % schneller: AlphaDev von Google DeepMind hat die Geschwindigkeit von C++-Sortieralgorithmen bei Billionen-maliger Ausführung um 70 % verbessert.

5. Viele Startups versuchen, das Problem der KI-Rechenleistung zu lösen: Zwei Harvard-Aussteiger haben einen speziellen Chip für die Inferenz großer Sprachmodelle entwickelt, der die Leistung von CoreWeave um das 140-fache steigert und Cloud-Computing-Funktionen für generative Zwecke bietet AI, innerhalb eines Monats Die kumulierte Finanzierung übersteigt 400 Millionen US-Dollar.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Neue Durchbrüche bei Produkten und Technologien der künstlichen Intelligenz

1. Midjourneys Rivale ist da! Googles StyleDrop-Ass „Customization Master“ lässt den KI-Kunstkreis explodieren

Googles neuestes StyleDrop kann als Midjourneys Rivale bezeichnet werden. Es kann jeden komplexen Kunststil anhand eines Referenzbilds dekonstruieren und reproduzieren, einschließlich abstrakter Werke, verschiedener Logostile usw. Im Vergleich zum „Pre-SOTA-Modell“ zeichnet sich StyleDrop durch Stilkonsistenz aus und Textausrichtung. Es sorgt für einen besser kontrollierbaren Malprozess und ermöglicht feine Arbeiten, die bisher undenkbar waren.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

StyleDrop basiert auf Muse, einem hochmodernen Text-zu-Bild-Synthesemodell, das auf dem maskengenerierten Bildtransformator basiert. Es enthält zwei Synthesemodule für die grundlegende Bilderzeugung und Superauflösung, jedes Modul besteht aus einem Text-Encoder T, ein Transformator G, ein Sampler S, ein Bild-Encoder E und ein Decoder D.

Der Trainingsprozess von

StyleDrop umfasst zwei Schlüsselaspekte. Die erste besteht in der effektiven Feinabstimmung der Parameter des generierten visuellen Transformers, der Bilder mit ähnlichem Stil auf einem bestimmten Referenzbild erzeugen kann. Darauf folgt ein iteratives Training mit Feedback. Durch den iterativen Trainingsprozess werden die generierten Bilder schrittweise optimiert, um die Stilkonsistenz und Textausrichtung zu verbessern.

2.AI schreibt den Sortieralgorithmus um, 70 % schneller: AlphaDev von Google DeepMind revolutioniert die Grundlagen der Datenverarbeitung

Die beiden Sätze von Google DeepMind Hassabis haben die Computerwelt in Aufruhr versetzt: „AlphaDev hat einen neuen und schnelleren Sortieralgorithmus entdeckt, und wir haben ihn als Open-Source-Lösung für Entwickler zur Verfügung gestellt. Dies ist nur eine Verbesserung der Code-Effizienz durch KI.“

AlphaDev basiert auf dem AlphaZero-Modell und verwandelt das Sortierproblem in ein „Assembly-Spiel“ für einen Einzelspieler. Durch die Suche nach einer großen Anzahl möglicher Befehlskombinationen findet es einen schnelleren Sortieralgorithmus als vorhandene Algorithmen und verbessert damit die Billionen von C++-Sortieralgorithmen 70 % Geschwindigkeit. Relevante Forschungsarbeiten wurden in der renommierten Fachzeitschrift Nature veröffentlicht. Dieses Ergebnis wurde nun in die LLVM-Standard-C++-Bibliothek Abseil aufgenommen und ist Open Source.

Daniel J. Mankowitz, einer der Hauptautoren von AlphaDev, sagte: Diese Technologie hat erhebliche Auswirkungen auf die Programmierung und die digitale Gesellschaft, wird Milliarden von Menschen Zeit und Energie sparen und soll das gesamte Computer-Ökosystem optimieren.

3. Reichen Sie ein beliebiges Video ein und erhalten Sie direkt ein 3D-Modell. Das erste chinesische Werk wird in CVPR 2023 aufgenommen Eine Technologie namens Neuralangelo von NVIDIA und der Johns Hopkins University kann automatisch detaillierte 3D-Modelle aus gewöhnlichen Videos generieren. Es nutzt eine SDF-basierte neuronale Rendering-Rekonstruktion und eine Hash-Codierungsarchitektur mit mehreren Auflösungen, um 3D-Strukturen ohne Tiefendaten zu generieren. Derzeit wurden verwandte Beiträge für CVPR 2023 ausgewählt.

In der Arbeit wurde Neuralangelo mit DTU- und Tanks and Temples-Datensätzen getestet, und die Ergebnisse zeigten, dass es bei der 3D-Detailgenerierung und Bildwiederherstellung eine genaue Leistung erbrachte. Im Vergleich zu „Pre-SOTA-Modellen“ wie NeuS und NeuralWarp zeigt Neuralangelo sowohl beim DTU-Datensatz als auch beim Tanks and Temples-Datensatz hervorragende Ergebnisse.

4. Fügen Sie umfassende audiovisuelle Funktionen zu großen Sprachmodellen hinzu, DAMO Academy Open Source Video-LLaMA

Um es großen Sprachmodellen zu ermöglichen, Videoinhalte zu verstehen und mit ihnen zu interagieren, schlugen Forscher der DAMO Academy Video-LLaMA vor, ein groß angelegtes Modell mit audiovisuellen Fähigkeiten. Dieses Modell kann Video- und Audiosignale wahrnehmen und verstehen, Benutzeranweisungen verstehen und komplexe Aufgaben wie Audio- und Videobeschreibungen sowie Fragen und Antworten erledigen.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Dieses Modell weist jedoch immer noch Einschränkungen auf, wie z. B. eingeschränkte Wahrnehmungsfähigkeiten, Schwierigkeiten bei der Verarbeitung langer Videos und inhärente Halluzinationen in Sprachmodellen. Die DAMO Academy sagte, dass sie hochwertige Audio-Video-Text-Datensätze erstellt, um die Wahrnehmungsfähigkeiten zu verbessern.

5. Cambridge, Tencent AI Lab und andere haben das PandaGPT-Modell vorgeschlagen: Ein Modell vereint sechs Modalitäten

Kürzlich haben Forscher aus Cambridge, NAIST und Tencent AI Lab ein modalübergreifendes Sprachmodell namens PandaGPT eingeführt. PandaGPT kombiniert die modale Ausrichtungsfähigkeit von ImageBind und die Generierungsfähigkeit von Vicuna, um Befehlsverständnis und Befehlsfolgefähigkeiten in sechs Modalitäten zu erreichen. Das Modell demonstriert die Fähigkeit, verschiedene Modalitäten zu verstehen, darunter bild-/videobasierte Fragen und Antworten, kreatives Schreiben und visuell-auditives Denken. Das Modell kann Bild-, Video-, Text-, Audio-, Heatmap-, Tiefenkarten- und IMU-Daten verarbeiten und deren Semantik auf natürliche Weise kombinieren.

6. Die National University of Singapore veröffentlicht Goat, das nur 7 Milliarden Parameter verwendet, um GPT-4 sofort abzutöten Forscher der National University of Singapore haben Goat entwickelt, ein Modell für die Arithmetik durch Feinabstimmung des LLaMA-Modells mit einer Parametergröße von 7 Milliarden. Es ist in Bezug auf die Rechenfähigkeiten deutlich besser als GPT-4. Goat schneidet bei der BIG-Bench-Arithmetik-Unteraufgabe hervorragend ab, mit einer Genauigkeit, die Bloom, OPT, GPT-NeoX usw. übertrifft. Unter ihnen übertrifft die vom Zero-Sample-Goat-7B erreichte Genauigkeit nach dem Lernen mit wenigen Samples sogar die des PaLM-540.

Goat erreicht durch die Feinabstimmung eines synthetischen arithmetischen Datensatzes eine nahezu perfekte Genauigkeit bei Additions- und Subtraktionsoperationen mit großen Zahlen und übertrifft damit andere vorab trainierte Sprachmodelle. Für anspruchsvollere Multiplikations- und Divisionsaufgaben schlugen die Forscher eine Methode zur Aufgabenklassifizierung und -zerlegung vor, um die Rechenleistung durch Zerlegung in lernbare Teilaufgaben zu verbessern. Diese Forschung bietet nützliche Untersuchungen und Inspiration für den Fortschritt von Sprachmodellen bei Rechenaufgaben.

7. iFlytek Spark Cognitive Large Model V1.5 veröffentlicht, Mehrrundendialog und mathematische Fähigkeiten wurden aktualisiert

Am 9. Juni wurde iFlytek Spark Cognitive Large Model V1.5 veröffentlicht. Diese Version hat Durchbrüche bei offenen Fragen und Antworten erzielt, mit mehreren Dialogrunden und verbesserten mathematischen Fähigkeiten sowie der Texterstellung, dem Sprachverständnis und den Fähigkeiten zum logischen Denken. Darüber hinaus wird iFlytek das „Spark Cognitive Model“ auch auf das mobile Endgerät bringen und seine Spark APP veröffentlichen.

Dem Plan zufolge wird iFlytek dieses Jahr drei Runden iterativer Upgrades durchführen, mit dem Ziel, am 24. Oktober ein Benchmarking von ChatGPT durchzuführen. Zusätzlich zum 9. Juni ist der nächste Upgrade-Knoten der 15. August, der hauptsächlich der Aktualisierung der Codefunktionen und der multimodalen Interaktion dient.

8. Googles öffentliches AI+ Software-Engineering-Framework DIDACT: interne Tests durch Tausende von Entwicklern

Google hat kürzlich ein Framework namens DIDACT angekündigt, das KI-Technologie nutzt, um die Softwareentwicklung zu verbessern und Entwickler beim Schreiben und Ändern von Code in Echtzeit zu unterstützen.

Das Modell des DIDACT-Frameworks ist multimodaler Natur und kann den nächsten Bearbeitungsvorgang basierend auf den historischen Vorgängen des Entwicklers vorhersagen. Diese Fähigkeit ermöglicht es dem Modell, die Absicht des Entwicklers besser zu verstehen und genaue Empfehlungen zu geben. Das Modell kann auch komplexere Aufgaben erledigen, z. B. mit einer leeren Datei beginnen und fortlaufend nachfolgende Bearbeitungsvorgänge vorhersagen, bis eine vollständige Codedatei generiert ist.

DIDACT-Tools umfassen Annotationsanalyse, Build-Korrektur und Hinweisvorhersage, jeweils integriert in verschiedenen Phasen des Entwicklungsworkflows. Aufzeichnungen über die Interaktionen dieser Tools mit Entwicklern werden als Trainingsdaten verwendet, um Modellen dabei zu helfen, Entwickleraktionen während Softwareentwicklungsaufgaben vorherzusagen.

9. Baidu bringt Comate auf den Markt, einen auf großen Modellen basierenden Code-Schreibassistenten, der Wen Xinyiyans Fähigkeit zum Hochleistungsmodell-Denken um das 50-fache verbessert

Vor kurzem hat Baidu Smart Cloud das intelligente Empfehlungstool Comate Coding eingeführt und den Einladungstest offiziell eröffnet. Comate ähnelt Code-Schreibassistenten wie GitHub Copilot, verwendet jedoch mehr chinesische Kommentare und Entwicklungsdokumente als Trainingsdaten. Während des Codierungsprozesses kann Comate basierend auf dem, was der Entwickler gerade schreibt, über mögliche nächste Eingabeoptionen nachdenken. Laut Baidu wurden die Comate-Funktionen zunächst in alle Geschäftsbereiche von Baidu integriert und haben gute Ergebnisse erzielt: 50 % des Codes in der Kern-F&E-Abteilung können über Comate generiert werden.

Darüber hinaus gab Baidu an, dass Wen Xinyiyans Denkleistung um das Zehnfache verbessert wurde. Gleichzeitig hat Wenxinyiyans Hochleistungsmodus „Wenxinyiyan-Turbo“ die Leistung von Inferenzdiensten um das 50-fache verbessert, basierend auf der vollständigen Toolkette der großen Modellplattform von Wenxin Qianfan in Hochfrequenz- und Kernszenarien von Unternehmensanwendungen.

10. Gedankenklonen! Ehemaliger OpenAI-Forscher lässt KI menschliches Denken nachahmen

Eine von Jeff Clune, einem ehemaligen leitenden Mitglied des OpenAI-Forschungsteams, geleitete Studie ergab, dass die Leistung und Sicherheit von Agenten der künstlichen Intelligenz verbessert werden kann, indem man sie menschliches Denken und Handeln imitieren lässt. Die Forschung nutzt einen Datensatz von Gedanken, die von Menschen während ihres Handelns gesprochen werden, und ermöglicht es einem Agenten, die Fähigkeit zum Denken zu erlernen und diese mit modelliertem Verhalten zu kombinieren. Dieser Ansatz wird „Gedankenklonen“ genannt, bei dem Komponenten der oberen Ebene Ideen generieren und Komponenten der unteren Ebene Aktionen ausführen.

Forscher nutzten Millionen Stunden an Gedankendaten, die aus YouTube-Videos und Textaufzeichnungen gesammelt wurden, für das Training. Experimentelle Ergebnisse zeigen, dass die Methode des „Gedankenklonens“ die herkömmliche Methode des Verhaltensklonens übertrifft und bei Out-of-Distribution-Aufgaben eine bessere Leistung erbringt. Diese Forschung ist von großer Bedeutung für die Entwicklung künstlicher Intelligenz, da sie das Intelligenzniveau und die Sicherheit von Agenten verbessert und sie leichter verständlich und kontrollierbar macht.

11. Der Inferenzprozess wurde erheblich optimiert und die leistungsstarke Transformer-Inferenzbibliothek gewann den IPDPS 2023 Best Paper Award

Der von ByteDance, NVIDIA und der University of California, Riverside veröffentlichte Artikel „ByteTransformer: A High-Performance Transformer Boosted for Variable-Length“ gewann den besten Artikel im IPDPS 2023.

ByteTransformer ist eine GPU-basierte Transformer-Inferenzbibliothek, die von ByteDance entwickelt wurde. ByteTransformer ist eine effiziente Transformer-Implementierung, die durch eine Reihe von Optimierungsmethoden eine hohe Leistung des BERT-Transformers erreicht. Bei der Texteingabe variabler Länge kann ByteTransformer im Experiment eine durchschnittliche Beschleunigung von mehr als 50 % erreichen. Es eignet sich zur Beschleunigung von Verarbeitungsaufgaben in natürlicher Sprache und zur Verbesserung der Effizienz des Modelltrainings und der Inferenz.

12.Ist das „RL“ in RLHF notwendig? Verwenden Sie die binäre Kreuzentropie, um LLM direkt zu optimieren. Der Effekt ist besser

RLHF (Reinforcement Learning with Human Feedback) ist derzeit eine beliebte Methode zur Abstimmung großer Modelle mit Menschen. Sie verleiht dem Modell beeindruckende Konversations- und Codierungsfunktionen, aber die RLHF-Pipeline ist viel komplexer als überwachtes Lernen und umfasst das Training mehrerer Sprachen. und Beispiel aus der Sprachmodellrichtlinie während der Trainingsschleife, was erhebliche Rechenkosten verursacht.

Kürzlich haben die Stanford University und andere Institutionen eine Forschung namens Direct Preference Optimization (DPO) vorgeschlagen. Die Forschung zeigt, dass das von bestehenden Methoden verwendete RL-basierte Ziel mit einem einfachen binären Kreuzentropieziel genau optimiert werden kann, wodurch die Präferenz vereinfacht wird Lernpipeline. Das heißt, es ist durchaus möglich, Sprachmodelle direkt zu optimieren, um den menschlichen Vorlieben zu entsprechen, ohne dass explizite Belohnungsmodelle oder verstärkendes Lernen erforderlich sind.

13. Verwenden Sie soziale Spieldaten, um ein soziales Ausrichtungsmodell zu trainieren, vergleichbar mit RLHF

Ein wichtiger Schritt bei der Entwicklung von Sprachmodellen besteht darin, ihr Verhalten mit den menschlichen sozialen Werten in Einklang zu bringen, was auch als Werteausrichtung bekannt ist. Die aktuelle Mainstream-Methode ist RLHF.

Allerdings gibt es bei diesem Ansatz mehrere Probleme. Erstens können die vom Agentenmodell generierten Belohnungen leicht gehackt werden, was zu Antworten führt, die nicht den Erwartungen entsprechen. Zweitens müssen das Agentenmodell und das generative Modell kontinuierlich interagieren, was den Trainingsprozess zeitaufwändig und ineffizient macht. Drittens entspricht das Belohnungsmodell selbst nicht genau dem Modell des menschlichen Denkens.

Eine aktuelle Studie von Dartmouth, Stanford, Google DeepMind und anderen Institutionen zeigt, dass der Einsatz sozialer Spiele zur Erstellung hochwertiger Daten in Kombination mit einfachen und effizienten Ausrichtungsalgorithmen der Schlüssel zum Erreichen einer Werteausrichtung sein kann. Die Forscher schlugen eine Methode für das Alignment-Training anhand von Multi-Agent-Spieldaten vor. Sie entwickelten ein virtuelles Sozialmodell namens Sandbox, bei dem soziale Individuen einen guten Eindruck hinterlassen, indem sie auf soziale Normen reagieren. Indem sie aus historischen Sandbox-Daten lernten, schlugen sie einen stabilen Ausrichtungsalgorithmus vor. Experimentell verifizierte, auf Ausrichtung trainierte Modelle sind in der Lage, schneller sozial normative Reaktionen zu generieren. Der stabile Ausrichtungsalgorithmus ist in Bezug auf Leistung und Trainingsstabilität mit RLHF vergleichbar und bietet eine einfachere und effektivere Werteausrichtungsmethode.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Neue Finanzierung für KI-Startups

1. Poolside, gegründet vom ehemaligen GitHub-CTO, erhielt eine Startfinanzierung in Höhe von 26 Millionen US-Dollar

Vor kurzem erhielt Poolside eine Startfinanzierung in Höhe von 26 Millionen US-Dollar unter der Leitung von Redpoint Ventures. Das Ziel von Poolside besteht darin, das menschliche Potenzial durch die Verfolgung von softwarebasierter AGI (Künstliche Allgemeine Intelligenz) freizusetzen, und basiert auf einem Grundkonzept: im Übergang von Menschen zu Der AGI-Pfad sollte durch den Aufbau spezifischer Fähigkeiten und nicht durch allgemeine Methoden erreicht werden.

Poolside-Gründer Jason Warner war zuvor Geschäftsführer bei Redpoint Ventures und zuvor CTO von GitHub. Sein Team war für die Entwicklung von GitHub Copilot verantwortlich. Er war Mitbegründer von Poolside zusammen mit dem Serienunternehmer Eiso Kant, der direkt auf OpenAI abzielte.

Poolside baut ein leistungsstarkes Basismodell und eine Infrastruktur der nächsten Generation auf. Dabei handelt es sich möglicherweise um ein Billionen-Parameter-Modell, das sich auf Software und Code konzentriert. Mithilfe der Funktionen dieses Modells können Künstler, Ärzte, Wissenschaftler und Pädagogen eine extrem niedrige Schwelle erreichen Software und Produkte 1.000-mal schneller als heute zu entwickeln, wird für jeden machbar und allgegenwärtig.

2. UpdateAI, eine KI-gestützte Kundenerfolgsplattform, erhielt eine Frühinvestition in Höhe von 2,3 Millionen US-Dollar von IdealabX, Zoom Ventures und a16z

UpdateAI ist ein Anbieter von Kundenerfolgsplattformen, der kürzlich unter der Leitung von IdealabX eine Finanzierung in Höhe von 2,3 Millionen US-Dollar erhalten hat.

UpdateAI vereinfacht die mühsame Arbeit von Kundenanrufen und ermöglicht es Kundenerfolgsmanagern, sich auf die Bereitstellung skalierbarer Kundeneinblicke zu konzentrieren. Die Plattform lässt sich in Zoom Meetings integrieren und nutzt ChatGPT, um intelligente Besprechungszusammenfassungen zu erstellen, die einen prägnanten Besprechungsüberblick bieten und Aufgaben nach dem Anruf wie das Versenden von Folge-E-Mails an Kunden automatisieren.

UpdateAIs Mitbegründer und CEO Josh Schachter ist ein Seriengründer mit gemischtem Hintergrund. Vor der Gründung von UpdateAI verfügte er nicht nur über zwei unternehmerische Erfahrungen und mehrere berufliche Erfahrungen als Produktmanager in großen Unternehmen, sondern war auch als Direktor bei Boston tätig Beratungsgruppe. Haben Sie ein tiefes Verständnis für die Bedürfnisse.

UpdateAI erhielt eine Finanzierung in Höhe von 2,3 Millionen US-Dollar. Diese Finanzierungsrunde wurde von IdealabX angeführt, unter Beteiligung von Zoom Ventures und a16z. UpdateAI hat zuvor 1,7 Millionen US-Dollar an Fördermitteln erhalten, und diese Runde erhöht die Gesamtfinanzierung auf 4 Millionen US-Dollar.

3. CoreWeave, das sich auf die Bereitstellung von Cloud-Computing-Funktionen für generative KI konzentriert, erhielt innerhalb eines Monats weitere 200 Millionen US-Dollar an strategischer Finanzierung

CoreWeave ist ein Startup-Unternehmen, das sich auf KI-Cloud-Computing konzentriert. Sein Investor, Magnetar Capital, hat seine strategische Finanzierung in Höhe von 200 Millionen US-Dollar geleitet, nachdem er zuvor eine Serie-B-Finanzierung in Höhe von 221 Millionen US-Dollar geleitet hatte . Biest.

CoreWeave bietet NVIDIA GPU-Cloud-Dienste mit mehr als einem Dutzend SKUs, darunter H100, A100, A40 und RTX A6000, die für verschiedene Anwendungsfälle wie künstliche Intelligenz und maschinelles Lernen, visuelle Effekte und Rendering, Stapelverarbeitung und Pixel-Streaming geeignet sind.

CoreWeave wurde von Intrator, Brian Venturo und Brannin McBee gegründet, die sich zunächst auf Kryptowährungsanwendungen konzentrierten und seitdem auf allgemeine Computer- und generative KI-Technologien wie KI-Modelle zur Textgenerierung umgestiegen sind.

An der vorherigen Serie-B-Finanzierung von CoreWeave in Höhe von 221 Millionen US-Dollar waren neben dem Hauptinvestor Magnetar Capital auch Investoren wie NVIDIA, der ehemalige GitHub-CEO Nat Friedman und der ehemalige Apple-Manager Daniel Gross beteiligt.

4. Die Workflow-Automatisierungs-Engine 8Flow.ai erhielt eine Seed-Finanzierung in Höhe von 6,6 Millionen US-Dollar

Kürzlich erhielt 8Flow.ai eine Seed-Finanzierung in Höhe von 6,6 Millionen US-Dollar unter der Leitung von Caffeinated Capital-Institutionen wie BoxGroup und Liquid2, und auch einzelne Investoren wie der ehemalige GitHub-CEO Nat Friedman und Howie Liu beteiligten sich.

Das Unternehmen hat eine selbstlernende Workflow-Automatisierungs-Engine für Unternehmen auf den Markt gebracht, die sich in Tools wie Zendesk, ServiceNow und Salesforce Service Cloud integrieren lässt, um Agenten bei der Erledigung täglicher Aufgaben zu unterstützen. In Zukunft plant das Unternehmen, all diese Daten zu nutzen, um Modelle für maschinelles Lernen zu trainieren, um KI-Workflows zu generieren, die auf die Bedürfnisse jedes Benutzers zugeschnitten sind.

Das Produkt von

8Flow.ai existiert derzeit als Chrome-Browsererweiterung, die relevante Daten automatisch von einem Programm in ein anderes kopieren und einfügen kann. Das Tool lernt automatisch die üblichen Schritte für jeden Agenten und setzt sie in Aktionen um, die mit einem einzigen Klick ausgelöst werden können.

8Flow.ai-Gründer Boaz Hecht war Mitbegründer und CEO von SkyGiraffe und fungierte später als Vizepräsident der ServiceNow-Plattform, verantwortlich für mobile und künstliche Intelligenz-Chat-Roboterprodukte.

5. Hyro, eine Konversationsplattform für künstliche Intelligenz im medizinischen Bereich, erhielt eine Serie-B-Finanzierung in Höhe von 20 Millionen US-Dollar unter der Leitung von Macquarie Capital

Kürzlich erhielt Hyro, eine Konversationsplattform für künstliche Intelligenz im medizinischen Bereich, eine von Macquarie Capital angeführte Serie-B-Finanzierung in Höhe von 20 Millionen US-Dollar.

Hyro wurde von zwei Absolventen der Cornell University, Israel Krush und Rom Cohen, mitbegründet. Israel Krush ist ein Serienunternehmer mit umfangreicher Branchenerfahrung.

Hyro nutzt einzigartige Technologie zur Verarbeitung natürlicher Sprache und Wissensgraphen, um eine Plug-and-Play-interne Chat-Schnittstelle für medizinische Systeme zu erstellen, die 85 % der täglichen Aufgaben in allgemeinmedizinischen Abteilungen abdeckt. Hyro kann Kundenwartungsarbeiten ohne Schulungsdaten durchführen und interne Informationen in Echtzeit aktualisieren. Der in die Plattform integrierte KI-Assistent kann sich an den ursprünglichen Arbeitsablauf der medizinischen Abteilung anpassen und so dabei helfen, die Kommunikation zu zentralisieren, Dienstleistungen zu verbessern und die Betriebskosten zu senken.

Es wird berichtet, dass der ARR von Hyro im Vergleich zum Vorjahr um mehr als 100 % gestiegen ist und zu den Hauptkunden Mercy Health, Baptist Health, Intermountain Healthcare usw. zählen.

6. Predibase, eine kommerzielle Low-Code-Plattform für maschinelles Lernen, hat eine Serie-A-Finanzierung in Höhe von 12,2 Millionen US-Dollar abgeschlossen

Predibase ist eine kommerzielle Low-Code-Plattform für maschinelles Lernen. Sie hilft Benutzern ohne maschinelle Lernkenntnisse, schnell und einfach komplexe KI-Anwendungen zu erstellen, zu iterieren und bereitzustellen. Kürzlich erhielt Predibase eine von Felicis angeführte Serie-A-Finanzierung in Höhe von 12,2 Millionen US-Dollar.

Mit der Plattform von Predibase können auch Benutzer ohne maschinelle Lernkenntnisse schnell und einfach komplexe KI-Anwendungen erstellen, iterieren und bereitstellen. Benutzer müssen lediglich die erforderlichen Inhalte über das plattformeigene KI-Modell definieren, die restlichen Vorgänge werden automatisch von der Plattform ausgeführt. Anfänger können die empfohlene Modellarchitektur auswählen, und erfahrene Benutzer können alle Modellparameter entsprechend ihren eigenen Anforderungen feinabstimmen, wodurch die ursprüngliche Bereitstellungszeit von KI-Anwendungen erheblich verkürzt wird.

Der Gründer und CEO von Predibase, Piero Molino, hat einen Hintergrund an der Schnittstelle zwischen Industrie und Wissenschaft. Er verfügt über Berufserfahrung bei IBM und Uber und hat auch als Forschungswissenschaftler an der Stanford University gearbeitet.

7. Beehive AI, eine KI-Analyseplattform für unstrukturierte Kundendaten, erhielt eine Startfinanzierung in Höhe von 5,1 Millionen US-Dollar

Beehive AI ist die weltweit erste KI-Plattform, die speziell für die Analyse unstrukturierter Kundendaten entwickelt wurde. Sie erhielt kürzlich eine Startfinanzierung in Höhe von 5,1 Millionen US-Dollar unter der Leitung von Valley Capital Partners.

Beehive AI ist eine durchgängige, anpassbare Unternehmens-KI-Plattform für Verbraucherforschung mit beispielloser Genauigkeit, Relevanz und Umfang. Durch die Analyse unstrukturierter offener Daten in Kombination mit quantitativen Daten hilft Beehive AI Unternehmen dabei, neue Erkenntnisse zu gewinnen und so ihre Kunden besser zu verstehen und zu bedienen.

Die Plattform ermöglicht es Kunden, ihre vorhandenen, auf einer beliebigen Plattform gesammelten Daten hochzuladen oder eine KI-gestützte Umfrage mit offenen Fragen zu starten, um ein umfassendes und differenziertes Feedback von Kunden zu erhalten. Anschließend führt es eine benutzerdefinierte Analyse der Daten durch und ermöglicht es Kunden, mithilfe intuitiver programmierbarer Dashboards Erkenntnisse zu gewinnen.

8. Etched.ai, ein Chipdesigner und -entwickler, der sich auf die Inferenz großer Sprachmodelle spezialisiert hat, erhielt eine Startfinanzierung in Höhe von 5,36 Millionen US-Dollar

Etched.ai ist ein Designer und Entwickler spezieller Chips für die Inferenz großer Sprachmodelle. Kürzlich erhielt das Unternehmen eine Startfinanzierungsrunde in Höhe von 5,36 Millionen US-Dollar unter der Leitung von Primary Venture Partners, an der sich der ehemalige Ebay-CEO Devin Wenig und andere beteiligten. Die aktuelle Bewertung des Unternehmens beträgt etwa 34 Millionen US-Dollar.

Etched.ai, gegründet von den Harvard-Aussteigern Gavin Uberti und Chris Zhu, hat einen professionelleren Chip mit geringerem Stromverbrauch für den Betrieb generativer KI-Modelle entwickelt. Sie hoffen, seinen Chip im dritten Quartal 2024 auf den Markt zu bringen und zu verkaufen an große Cloud-Dienstleister.

Die Gründer von Etched.ai sagen, dass Simulationen zeigen, dass ihr Chip im Vergleich zu herkömmlichen GPUs eine 140-fache Leistungssteigerung pro Dollar bietet.

9. Durch den Einsatz künstlicher Intelligenz zur Verbesserung der Kosteneffizienz von Cloud Computing erhielt Antimetal eine Startfinanzierung in Höhe von 4,3 Millionen US-Dollar

Kürzlich hat Antimetal, das sich der Entwicklung von KI-Technologie zur Verbesserung der Kosteneffizienz von Cloud Computing verschrieben hat, eine Seed-Finanzierungsrunde in Höhe von 4,3 Millionen US-Dollar unter der Leitung von Framework Ventures abgeschlossen.

Antimetal nutzt proprietäre Modelle für maschinelles Lernen, um die Cloud-Computing-Bereitstellung zu optimieren, steigt in den gängigsten AWS-Cloud-Computing-Dienst ein und wird in Zukunft auf andere Cloud-Computing-Plattformen wie Google und Microsoft expandieren.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Das Unternehmen entwickelt Online-Algorithmen, nutzt künstliche Intelligenz, um Marktdynamiken zu untersuchen, und integriert, plant und verkauft diese Cloud-Computing-Ressourcen dann weiter. Es dauert durchschnittlich 90 Tage, bis Unternehmen diese ungenutzten AWS-Ressourcen verkaufen, aber mit Antimetal wird der Deal etwa dreimal schneller abgeschlossen.

Firmengründer und CEO Matthew Parkhurst arbeitete lange Zeit in SaaS-Unternehmen, bevor er sein eigenes Unternehmen gründete, und verfügt über mehr als 7 Jahre Branchenerfahrung.

10. Das KI-Startup für medizinische Bildgebung Hypervision Surgical erhielt eine Startfinanzierung in Höhe von 6,5 Millionen Pfund

Hypervision Surgical hat kürzlich eine Seed-Finanzierung in Höhe von 6,5 Millionen Pfund von HERAN Partners, Redalpine und ZEISS Ventures erhalten.

Hypervision Surgical ist ein Spin-out des King’s College London, das von einem Team aus Klinikern, Experten für medizinische Bildgebung und künstliche Intelligenz gegründet wurde. Ziel ist es, Ärzte mit fortschrittlicher computergestützter Gewebeanalyse auszustatten, um die chirurgische Präzision und Patientensicherheit zu verbessern und die Morbidität der Patienten sowie die Gesundheitskosten im chirurgischen Fachgebiet zu senken.

Derzeit entwickelt das Unternehmen medizinische Bildgebung für chirurgische Eingriffe durch die Kombination von hyperspektraler KI-Bildgebung und Edge-Computing. Mit dieser Technologie können sich Chirurgen bei komplexen onkologischen Operationen auf präzise Messungen und Informationen zu Gewebeeigenschaften verlassen, um zwischen gesundem und ungesundem Gewebe zu unterscheiden.

Martin Frost, ein Kernmitglied des Unternehmensteams, war Gründer und ehemaliger CEO des Chirurgieroboterunternehmens CMR Surgical. Der CEO des Unternehmens, Michael Ebner, schloss sein Studium am King's College London ab und wurde in die Royal Academy of Engineering gewählt.

Dieser Artikel wurde von Alpha Commune aus mehreren Informationsquellen zusammengestellt und mit Unterstützung von ChatGPT verfasst.

Über Alpha Commune

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Das obige ist der detaillierte Inhalt vonGoogle StyleDrop übertrifft MidJourney in puncto Steuerbarkeit und der ehemalige CTO von GitHub nutzt KI, um die Programmierung zu untergraben. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen