Heim >Web-Frontend >js-Tutorial >Erstellen Sie eine Rede-to-Text-Web-App mit Flüstern, Reaktionen und Knoten
Dieser Artikel zeigt, dass eine Sprach- und Textanwendung erstellt wird, in der Openai's Whissper API, React, Node.js und FFMPEG nutzt. Die Anwendung akzeptiert Audioeingabe, verarbeitet sie mit Flüstern und zeigt die resultierende Transkription an. Die Genauigkeit von Whisper ist auch mit nicht einheimischen englischen Sprechern hervorgehoben.
Schlüsselmerkmale:
Technische Übersicht:
Die Anwendungsarchitektur besteht aus einem React -Frontend und einem Node.js -Backend. Der Frontend übernimmt die Benutzerinteraktion (Datei -Uploads, Zeitauswahl), während der Backend die API -Kommunikation mit OpenAIs Whisper und Audioverarbeitung mit FFMPEG verwaltet. Das Backend verwendet dotenv
, cors
, multer
, form-data
und axios
für Umgebungsvariablenverwaltung, Cross-Origin-Ressourcenfreigabe, Datei-Uploads, Formularverarbeitung bzw. API-Anforderungen. FFMPEG -Integration, erleichtert durch fluent-ffmpeg
, ffmetadata
und ffmpeg-static
, ermöglicht präzise Audio -Trimmen.
Projekt -Setup:
Das Projekt ist mit separaten frontend
und backend
Verzeichnissen strukturiert. Das React -Frontend wird mit create-react-app
initialisiert, und die erforderlichen Pakete (axios
, react-dropzone
, react-select
, react-toastify
) werden installiert. The Node.js backend uses Express.js, and packages (express
, dotenv
, cors
, multer
, form-data
, axios
, fluent-ffmpeg
, ffmetadata
, ffmpeg-static
, nodemon
) werden für die Serverfunktionalität, die API -Interaktion und die FFMPEG -Integration installiert.
flüsternde Integration:
Eine Postroute (/api/transcribe
) überladet Audio -Uploads, konvertiert das Audio in einen lesbaren Stream, sendet ihn an die Whisper -API und gibt die Transkription als JSON zurück. Fehlerbehandlungen und Best Practices für die Sicherheitssicherung werden implementiert.
ffmpeg Integration:
FFMPEG wird verwendet, um Audiosegmente basierend auf benutzerdefinierten Start- und Endzeiten zu schließen. Eine Versorgungsfunktion wandelt Zeitzeichenfolgen für die FFMPEG -Verarbeitung in Sekunden um. Das geschnittene Audio wird dann an die Flüsterapi gesendet.
Frontend -Entwicklung:
Eine benutzerdefinierte TimePicker
-Komponente, die mit react-select
erstellt wurde, ermöglicht es Benutzern, präzise Start- und Endzeiten für die Transkription auszuwählen. Die Hauptanwendungskomponente verarbeitet Datei -Uploads, kommuniziert mit der Backend -API und zeigt die Transkriptionsergebnisse an. Toastbenachrichtigungen geben dem Benutzer Feedback.
Bereitstellung:
Der Artikel enthält Links zu den vollständigen Frontend- und Backend -Code -Repositories auf GitHub, wodurch eine einfache Bereitstellung und weitere Anpassung erleichtert wird.
häufig gestellte Fragen (FAQs): Der Artikel schließt mit einem umfassenden FAQ -Abschnitt, der gemeinsame Fragen zu Whisper, seine Integration in React und Node.JS, Genauigkeit, Fehlerbehebung, Kosten und Beitragsmöglichkeiten beantwortet.
Das obige ist der detaillierte Inhalt vonErstellen Sie eine Rede-to-Text-Web-App mit Flüstern, Reaktionen und Knoten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!