音声コマンドは、Google AssistantやAlexaなどの仮想アシスタントだけではありません。 モバイルおよびデスクトップアプリケーションを大幅に強化し、機能と楽しいユーザーエクスペリエンスの両方を追加できます。 音声コマンドや音声検索の統合は驚くほど簡単です。この記事では、Reactフレームワーク内のWebスピーチAPIを使用して、音声制御された本の検索アプリケーションを構築します。
完全なコードはGitHubで利用でき、最後に作業デモが提供されます。 重要な概念:Web Speech APIを活用して、Reactアプリケーションで音声検索を可能にし、ユーザーの相互作用を改善します。
- 基本的なReactコンポーネントの構築(Create React Appを使用)してから、Speech APIを統合して音声認識のために。
- Reactコンポーネントライフサイクル内で継続的な音声認識を実装し、Reactフックを使用した状態を管理します。 音声認識ロジックをカプセル化して再利用するためのカスタムReactフック(
- )を開発します。
- 別のカスタムフック( )を使用して本の検索機能を統合して機能を拡張し、音声入力に基づいてデータ検索のために外部API(オープンライブラリ)と対話します。
-
useVoice
Web Speech APIはじめに: -
useBookFetch
Web Speech APIには、ブラウザのサポートが限られています。 互換性のあるブラウザを使用していることを確認してください(最新の互換性情報についてはMDNを確認してください)。
このコードはインスタンス化され、イベントリスナーを追加して音声転写を処理し、リスニングを開始します。 ブラウザはマイクのアクセスを要求します。 スピーチの後、
は転写されたテキストを提供します。イベントは、
arrayを含む
オブジェクトを配信します。 この配列の最初の要素には、転写されたテキストが保持されます。const SpeechRecognition = webkitSpeechRecognition; const speech = new SpeechRecognition(); speech.onresult = (event) => { console.log(event); }; speech.start();この基本コードは、Chrome DevtoolsまたはJavaScriptファイルで実行できます。 これをReactアプリケーションに統合しましょう。
SpeechRecognition
onresult
onresult
ReactでWeb Speechを使用:onresult
SpeechRecognitionEvent
results
新しいReactプロジェクトを作成します:
デフォルトを次のものに置き換えます。これには、WebスピーチAPIが組み込まれています。
この拡張されたコンポーネントは、リスニング状態()を管理し、転写されたテキスト(
)を処理します。 フックは、リスナーをセットアップします。
再利用可能なカスタム反応音声フック:npx create-react-app book-voice-search cd book-voice-search npm start
コードの再利用可能性を改善するには、カスタムフック
:useVoice.js
を作成します
const SpeechRecognition = webkitSpeechRecognition; const speech = new SpeechRecognition(); speech.onresult = (event) => { console.log(event); }; speech.start();このフックは、音声認識ロジックをカプセル化します。 ここで、このフックを使用するには
を更新します:App.js
npx create-react-app book-voice-search cd book-voice-search npm startこれにより、
が簡素化され、コードの再利用を促進します
App.js
本の検索を処理するために別のカスタムフックを作成してください:
useBookFetch.js
このフックは、著者の名前に基づいて、オープンライブラリから本データを取得します。 最後に、検索結果を表示するには、これを
// App.js import React, { useState, useEffect } from "react"; import "./index.css"; import Mic from "./microphone-black-shape.svg"; // Import your microphone image let speech; if (window.webkitSpeechRecognition) { const SpeechRecognition = webkitSpeechRecognition; speech = new SpeechRecognition(); speech.continuous = true; // Enable continuous listening } else { speech = null; } const App = () => { const [isListening, setIsListening] = useState(false); const [text, setText] = useState(""); const listen = () => { setIsListening(!isListening); if (isListening) { speech.stop(); } else { speech.start(); } }; useEffect(() => { if (!speech) return; speech.onresult = (event) => { setText(event.results[event.results.length - 1][0].transcript); }; }, []); // ... (rest of the component remains the same) }; export default App;
これにより、音声制御された本の検索アプリケーションが完成します
App.js
// useVoice.js import { useState, useEffect } from 'react'; // ... (SpeechRecognition setup remains the same) const useVoice = () => { // ... (state and listen function remain the same) useEffect(() => { // ... (onresult event listener remains the same) }, []); return { text, isListening, listen, voiceSupported: speech !== null }; }; export { useVoice };
[CodeSandboxまたは同様のデモリンクをこちらに挿入]
結論:
この例では、Reactアプリケーションに音声相互作用を追加するためのWeb Speech APIのパワーとシンプルさを示しています。 ブラウザの互換性と潜在的な精度の制限を覚えておいてください。 完全なコードはgithubで利用できます。
FAQ(より良いフローのために最後に移動):(これらは元の形式で結論に従うでしょう)元の入力のFAQセクションはここに含めることができます。この改訂された記事の中で
以上がReactアプリケーションに音声検索を追加しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

JavaScriptは、フロントエンドおよびバックエンド開発に使用できます。フロントエンドは、DOM操作を介してユーザーエクスペリエンスを強化し、バックエンドはnode.jsを介してサーバータスクを処理することを処理します。 1.フロントエンドの例:Webページテキストのコンテンツを変更します。 2。バックエンドの例:node.jsサーバーを作成します。

PythonまたはJavaScriptの選択は、キャリア開発、学習曲線、エコシステムに基づいている必要があります。1)キャリア開発:Pythonはデータサイエンスとバックエンド開発に適していますが、JavaScriptはフロントエンドおよびフルスタック開発に適しています。 2)学習曲線:Python構文は簡潔で初心者に適しています。 JavaScriptの構文は柔軟です。 3)エコシステム:Pythonには豊富な科学コンピューティングライブラリがあり、JavaScriptには強力なフロントエンドフレームワークがあります。

JavaScriptフレームワークのパワーは、開発を簡素化し、ユーザーエクスペリエンスとアプリケーションのパフォーマンスを向上させることにあります。フレームワークを選択するときは、次のことを検討してください。1。プロジェクトのサイズと複雑さ、2。チームエクスペリエンス、3。エコシステムとコミュニティサポート。

はじめに私はあなたがそれを奇妙に思うかもしれないことを知っています、JavaScript、C、およびブラウザは正確に何をしなければなりませんか?彼らは無関係であるように見えますが、実際、彼らは現代のウェブ開発において非常に重要な役割を果たしています。今日は、これら3つの間の密接なつながりについて説明します。この記事を通して、JavaScriptがブラウザでどのように実行されるか、ブラウザエンジンでのCの役割、およびそれらが協力してWebページのレンダリングと相互作用を駆動する方法を学びます。私たちは皆、JavaScriptとブラウザの関係を知っています。 JavaScriptは、フロントエンド開発のコア言語です。ブラウザで直接実行され、Webページが鮮明で興味深いものになります。なぜJavascrを疑問に思ったことがありますか

node.jsは、主にストリームのおかげで、効率的なI/Oで優れています。 ストリームはデータを段階的に処理し、メモリの過負荷を回避します。大きなファイル、ネットワークタスク、リアルタイムアプリケーションの場合。ストリームとTypeScriptのタイプの安全性を組み合わせることで、パワーが作成されます

PythonとJavaScriptのパフォーマンスと効率の違いは、主に以下に反映されています。1)解釈された言語として、Pythonはゆっくりと実行されますが、開発効率が高く、迅速なプロトタイプ開発に適しています。 2)JavaScriptはブラウザ内の単一のスレッドに限定されていますが、マルチスレッドおよび非同期I/Oを使用してnode.jsのパフォーマンスを改善でき、両方とも実際のプロジェクトで利点があります。

JavaScriptは1995年に発信され、Brandon Ikeによって作成され、言語をCに実現しました。 2。JavaScriptのメモリ管理とパフォーマンスの最適化は、C言語に依存しています。 3. C言語のクロスプラットフォーム機能は、さまざまなオペレーティングシステムでJavaScriptを効率的に実行するのに役立ちます。

JavaScriptはブラウザとnode.js環境で実行され、JavaScriptエンジンに依存してコードを解析および実行します。 1)解析段階で抽象的構文ツリー(AST)を生成します。 2)ASTをコンパイル段階のバイトコードまたはマシンコードに変換します。 3)実行段階でコンパイルされたコードを実行します。


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

EditPlus 中国語クラック版
サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

SublimeText3 Linux 新バージョン
SublimeText3 Linux 最新バージョン

mPDF
mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

Dreamweaver Mac版
ビジュアル Web 開発ツール
