Maison >développement back-end >tutoriel php >Comment utiliser les protocoles PHP et WebRTC pour la communication audio et vidéo en temps réel
Comment utiliser les protocoles PHP et WebRTC pour la communication audio et vidéo en temps réel
À l'ère d'Internet d'aujourd'hui, la communication audio et vidéo en temps réel est devenue un élément indispensable de la vie quotidienne des gens. La technologie WebRTC (Web Real-Time Communication), en tant que norme ouverte de communication en temps réel, fournit un support puissant pour l'intégration de communications audio et vidéo en temps réel dans les applications Web. Cet article expliquera comment utiliser les protocoles PHP et WebRTC pour la communication audio et vidéo en temps réel, et fournira des exemples de code correspondants.
Ce qui suit est un exemple de serveur de signalisation simple implémenté à l'aide de la bibliothèque Ratchet WebSocket :
<?php use RatchetMessageComponentInterface; use RatchetConnectionInterface; require 'vendor/autoload.php'; class SignalingServer implements MessageComponentInterface { protected $clients; public function __construct() { $this->clients = new SplObjectStorage; } public function onOpen(ConnectionInterface $conn) { $this->clients->attach($conn); } public function onMessage(ConnectionInterface $from, $msg) { foreach ($this->clients as $client) { if ($client !== $from) { $client->send($msg); } } } public function onClose(ConnectionInterface $conn) { $this->clients->detach($conn); } public function onError(ConnectionInterface $conn, Exception $e) { $conn->close(); } } $server = RatchetServerIoServer::factory( new RatchetHttpHttpServer( new RatchetWebSocketWsServer( new SignalingServer() ) ), 8080 ); $server->run();
Veuillez noter que la bibliothèque Ratchet WebSocket est utilisée dans le code ci-dessus pour implémenter le serveur WebSocket. Vous pouvez utiliser Composer pour installer la bibliothèque.
Ce qui suit est un exemple de code d'une application WebRTC simple :
<!DOCTYPE html> <html> <head> <title>WebRTC Video Chat</title> </head> <body> <video id="localVideo" autoplay></video> <video id="remoteVideo" autoplay></video> <button id="startButton">Start Call</button> <button id="hangupButton">Hang Up</button> <script src="https://webrtc.github.io/adapter/adapter-latest.js"></script> <script> const startButton = document.getElementById('startButton'); const hangupButton = document.getElementById('hangupButton'); const localVideo = document.getElementById('localVideo'); const remoteVideo = document.getElementById('remoteVideo'); let localStream; let peerConnection; startButton.addEventListener('click', startCall); hangupButton.addEventListener('click', hangup); async function startCall() { localStream = await navigator.mediaDevices.getUserMedia({audio: true, video: true}); localVideo.srcObject = localStream; const configuration = {iceServers: [{urls: 'stun:stun.l.google.com:19302'}]}; peerConnection = new RTCPeerConnection(configuration); peerConnection.addEventListener('icecandidate', handleIceCandidate); peerConnection.addEventListener('track', handleRemoteStreamAdded); localStream.getTracks().forEach(track => { peerConnection.addTrack(track, localStream); }); const offer = await peerConnection.createOffer(); await peerConnection.setLocalDescription(offer); // 将信令通过WebSocket发送给信令服务器 sendSignaling(JSON.stringify(offer)); } async function handleIceCandidate(event) { if (event.candidate) { sendSignaling(JSON.stringify({ice: event.candidate})); } } async function handleRemoteStreamAdded(event) { remoteVideo.srcObject = event.streams[0]; } async function hangup() { localStream.getTracks().forEach(track => { track.stop(); }); peerConnection.close(); // 发送挂断信令给信令服务器 sendSignaling(JSON.stringify({hangup: true})); } function sendSignaling(message) { const ws = new WebSocket('ws://localhost:8080'); ws.addEventListener('open', () => { ws.send(message); ws.close(); }); } </script> </body> </html>
Dans le code ci-dessus, nous obtenons d'abord le flux audio et vidéo local via l'API getUserMedia et l'affichons sur la page. Ensuite, nous avons créé un objet RTCPeerConnection et écouté le candidat icecandidate et suivi les événements correspondants. Grâce à la méthode createOffer, nous générons un SDP (Session Description Protocol) pour l'échange entre les appareils et définissons la description locale via la méthode setLocalDescription. Enfin, nous envoyons cette signalisation SDP au serveur de signalisation.
Serveur de signalisation :
<?php // ... public function onMessage(ConnectionInterface $from, $msg) { $data = json_decode($msg); if (isset($data->sdp)) { // 处理SDP信令(包括offer和answer) foreach ($this->clients as $client) { if ($client !== $from) { $client->send($msg); } } } elseif (isset($data->ice)) { // 处理ICE候选信令 foreach ($this->clients as $client) { if ($client !== $from) { $client->send($msg); } } } elseif (isset($data->hangup)) { // 处理挂断信令 foreach ($this->clients as $client) { if ($client !== $from) { $client->send($msg); $this->onClose($client); } } } } // ...
Application WebRTC :
// ... async function handleSignalingMessage(message) { const data = JSON.parse(message); if (data.sdp) { await peerConnection.setRemoteDescription(new RTCSessionDescription(data.sdp)); if (data.sdp.type === 'offer') { const answer = await peerConnection.createAnswer(); await peerConnection.setLocalDescription(answer); // 发送回答信令给信令服务器 sendSignaling(JSON.stringify(answer)); } } else if (data.ice) { await peerConnection.addIceCandidate(new RTCIceCandidate(data.ice)); } else if (data.hangup) { // 处理挂断信令 hangup(); } } // ...
Lorsque l'appareil A lance un appel vers l'appareil B via le serveur de signalisation, l'appareil B recevra un WebSocket contenant des informations de signalisation d'offre. L'appareil B accepte la demande d'appel en définissant la description distante et génère sa propre signalisation de réponse, qu'il renvoie ensuite à l'appareil A.
Une fois que l'appareil A reçoit la signalisation de réponse de l'appareil B, il définira sa description à distance et commencera à établir une connexion avec l'appareil B. En échangeant la signalisation candidate ICE, l'appareil A et l'appareil B trouveront un chemin de communication optimal.
Lorsque l'appareil A ou l'appareil B met fin à l'appel, ils enverront une signalisation de raccrochage au serveur de signalisation et fermeront la connexion avec l'autre partie.
Résumé
En utilisant les protocoles PHP et WebRTC, nous pouvons facilement réaliser une communication audio et vidéo en temps réel. Dans cet article, nous avons découvert les principes de base et l'utilisation de WebRTC et fourni des exemples de code correspondants. J'espère que l'introduction de cet article pourra aider les lecteurs à comprendre comment utiliser les protocoles PHP et WebRTC pour la communication audio et vidéo en temps réel.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!