Heim > Artikel > Web-Frontend > HTML5-Beispielentwicklung für das Teilen somatosensorischer Kinect-Spiele
In diesem Artikel werden hauptsächlich relevante Informationen zur Beispielanwendung von HTML5 zur Entwicklung somatosensorischer Spiele vorgestellt. Ich hoffe, dass dieser Artikel Ihnen helfen kann.
Beispielanwendung von HTML5 zur Entwicklung somatosensorischer Kinect-Spiele
1. Einführung
Was machen wir? tun? Ein Spiel?
Auf der Chengdu TGC2016-Ausstellung haben wir vor kurzem ein somatosensorisches Spiel von „Naruto Mobile“ entwickelt, das hauptsächlich das Handyspielkapitel „Nine-Tails Attack“ simuliert. Der Benutzer wird zur vierten Generation und konkurriert mit dem Das Duell lockte zahlreiche Spieler an. Oberflächlich betrachtet unterscheidet sich dieses Spiel nicht von anderen somatosensorischen Erlebnissen. Tatsächlich läuft es unter dem Browser Chrome. Mit anderen Worten: Wir müssen nur die entsprechende Front-End-Technologie beherrschen, um ein webbasiertes somatosensorisches Spiel zu entwickeln Kinect.
2. Umsetzungsprinzip
Was ist die Umsetzungsidee?
Bei der Entwicklung von Kinect-basierten somatosensorischen Spielen ist das Funktionsprinzip eigentlich sehr einfach: Kinect sammelt Spieler- und Umgebungsdaten, wie zum Beispiel das menschliche Skelett, und verwendet eine bestimmte Methode, um dem Browser den Zugriff auf diese Daten zu ermöglichen.
1. Daten sammeln
Die mittlere Linse ähnelt einer gewöhnlichen Kamera und erfasst Farbbilder. Die linke und rechte Linse erhalten Tiefendaten durch Infrarotstrahlen. Wir verwenden das von Microsoft bereitgestellte SDK, um die folgenden Datentypen zu lesen:
Farbdaten: Farbbild;
Tiefendaten: Farbversuch Informationen;
Menschliche Skelettdaten: Basierend auf Berechnungen, die auf den oben genannten Daten basieren, werden menschliche Skelettdaten erhalten.
2. Machen Sie die Kinect-Daten für den Browser zugänglich
Die Frameworks, die ich ausprobiert und verstanden habe, sind im Grunde die Socket ermöglicht dem Browserprozess die Kommunikation mit dem Server zur Datenübertragung:
Kinect-HTML5 verwendet C# zum Erstellen des Servers, und es werden alle Farbdaten, Testdaten und Skelettdaten bereitgestellt;
ZigFu unterstützt H5-, U3D- und Flash-Entwicklung. Die API ist relativ vollständig und scheint kostenpflichtig zu sein.
DepthJS bietet Datenzugriff die Form eines Browser-Plug-Ins;
Node-Kinect2 verwendet Nodejs zum Erstellen der Serverseite und stellt relativ vollständige Daten und viele Beispiele bereit.
Ich habe mich schließlich für Node-Kinect2 entschieden, es gibt jedoch viele Beispiele, die Front-End-Ingenieuren bekannt sind relativ schnell.
Kinect: Erfassen Sie Spielerdaten wie Tiefenbilder, Farbbilder usw.;
Node-Kinect2: Rufen Sie die entsprechenden Daten von Kinect ab und führen Sie eine Sekundärverarbeitung durch.
Sie müssen zuerst einen Kinect kaufen
1. Systemanforderungen:
USB3.0
Grafikkarte, die DX11 unterstützt
Win8- und höher-Systeme
Browser, der Web Sockets unterstützt
Natürlich ist der Kinect v2-Sensor unverzichtbar
Kinect v2 verbinden
KinectSDK-v2.0 installieren
Nodejs installieren
Node-Kinect2 installieren
npm install kinect24. Beispieldemonstration
Es gibt nichts Besseres, als mir ein Beispiel zu geben!
Wie in der Abbildung unten gezeigt, zeigen wir, wie man das menschliche Skelett erhält und das mittlere Segment der Wirbelsäule und Gesten identifiziert:
1. Serverseite
Erstellen Sie einen Webserver und senden Sie die Skelettdaten an die Browserseite. Der Code lautet wie folgt:
var Kinect2 = require('../../lib/kinect2'), express = require('express'), app = express(), server = require('http').createServer(app), io = require('socket.io').listen(server); var kinect = new Kinect2(); // 打开kinect if(kinect.open()) { // 监听8000端口 server.listen(8000); // 指定请求指向根目录 app.get('/', function(req, res) { res.sendFile(__dirname + '/public/index.html'); }); // 将骨骼数据发送给浏览器端 kinect.on('bodyFrame', function(bodyFrame){ io.sockets.emit('bodyFrame', bodyFrame); }); // 开始读取骨骼数据 kinect.openBodyReader(); }2. Browserseite
Die Browserseite ruft die Knochendaten ab und zeichnet sie mit Canvas Der Schlüssel Der Code lautet wie folgt:
var socket = io.connect('/'); var ctx = canvas.getContext('2d'); socket.on('bodyFrame', function(bodyFrame){ ctx.clearRect(0, 0, canvas.width, canvas.height); var index = 0; // 遍历所有骨骼数据 bodyFrame.bodies.forEach(function(body){ if(body.tracked) { for(var jointType in body.joints) { var joint = body.joints[jointType]; ctx.fillStyle = colors[index]; // 如果骨骼节点为脊椎中点 if(jointType == 1) { ctx.fillStyle = colors[2]; } ctx.fillRect(joint.depthX * 512, joint.depthY * 424, 10, 10); } // 识别左右手手势 updateHandState(body.leftHandState, body.joints[7]); updateHandState(body.rightHandState, body.joints[11]); index++; } }); });5. Entwicklungsdokumentation
Node-Kinect2 stellt keine Dokumentation zur Verfügung. Ich habe die Dokumentation meiner Testzusammenfassung wie folgt organisiert:
1 , die Datentypen, die der Server bereitstellen kann; >bodyFrame | 骨骼数据 |
infraredFrame | 红外数据 |
longExposureInfraredFrame | 类似infraredFrame,貌似精度更高,优化后的数据 |
rawDepthFrame | 未经处理的景深数据 |
depthFrame | 景深数据 |
colorFrame | 彩色图像 |
multiSourceFrame | 所有数据 |
audio | 音频数据,未测试 |
2、骨骼节点类型
body.joints[11] // joints包括哪些呢?
节点类型 | JointType | 节点名称 |
0 | spineBase | 脊椎基部 |
1 | spineMid | 脊椎中部 |
2 | neck | 颈部 |
3 | head | 头部 |
4 | shoulderLeft | 左肩 |
5 | elbowLeft | 左肘 |
6 | wristLeft | 左腕 |
7 | handLeft | 左手掌 |
8 | shoulderRight | 右肩 |
9 | elbowRight | 右肘 |
10 | wristRight | 右腕 |
11 | handRight | 右手掌 |
12 | hipLeft | 左屁 |
13 | kneeLeft | 左膝 |
14 | ankleLeft | 左踝 |
15 | footLeft | 左脚 |
16 | hipRight | 右屁 |
17 | kneeRight | 右膝 |
18 | ankleRight | 右踝 |
19 | footRight | 右脚 |
20 | spineShoulder | 颈下脊椎 |
21 | handTipLeft | 左手指(食中无小) |
22 | thumbLeft | 左拇指 |
23 | handTipRight | 右手指 |
24 | thumbRight | 右拇指 |
3、手势,据测识别并不是太准确,在精度要求不高的情况下使用
0 | unknown | 不能识别 |
1 | notTracked | 未能检测到 |
2 | open | 手掌 |
3 | closed | 握拳 |
4 | lasso | 剪刀手,并合并中食指 |
4、骨骼数据
body [object] { bodyIndex [number]:索引,允许6人 joints [array]:骨骼节点,包含坐标信息,颜色信息 leftHandState [number]:左手手势 rightHandState [number]:右手手势 tracked [boolean]:是否捕获到 trackingId }
5、kinect对象
on | 监听数据 |
open | 打开Kinect |
close | 关闭 |
openBodyReader | 读取骨骼数据 |
open**Reader | 类似如上方法,读取其它类型数据 |
六、实战总结
火影体感游戏经验总结
接下来,我总结一下TGC2016《火影忍者手游》的体感游戏开发中碰到的一些问题。
1、讲解之前,我们首先需要了解下游戏流程。
1.1、通过手势触发开始游戏 |
1.2、玩家化身四代,左右跑动躲避九尾攻击 |
1.3、摆出手势“奥义”,触发四代大招 |
1.4、用户扫描二维码获取自己现场照片 |
2、服务器端
游戏需要玩家骨骼数据(移动、手势),彩色图像数据(某一手势下触发拍照),所以我们需要向客户端发送这两部分数据。值得注意的是,彩色图像数据体积过大,需要进行压缩。
var emitColorFrame = false; io.sockets.on('connection', function (socket){ socket.on('startColorFrame', function(data){ emitColorFrame = true; }); }); kinect.on('multiSourceFrame', function(frame){ // 发送玩家骨骼数据 io.sockets.emit('bodyFrame', frame.body); // 玩家拍照 if(emitColorFrame) { var compression = 1; var origWidth = 1920; var origHeight = 1080; var origLength = 4 * origWidth * origHeight; var compressedWidth = origWidth / compression; var compressedHeight = origHeight / compression; var resizedLength = 4 * compressedWidth * compressedHeight; var resizedBuffer = new Buffer(resizedLength); // ... // 照片数据过大,需要压缩提高传输性能 zlib.deflate(resizedBuffer, function(err, result){ if(!err) { var buffer = result.toString('base64'); io.sockets.emit('colorFrame', buffer); } }); emitColorFrame = false; } }); kinect.openMultiSourceReader({ frameTypes: Kinect2.FrameType.body | Kinect2.FrameType.color });
3、客户端
客户端业务逻辑较复杂,我们提取关键步骤进行讲解。
3.1、用户拍照时,由于处理的数据比较大,为防止页面出现卡顿,我们需要使用web worker
(function(){ importScripts('pako.inflate.min.js'); var imageData; function init() { addEventListener('message', function (event) { switch (event.data.message) { case "setImageData": imageData = event.data.imageData; break; case "processImageData": processImageData(event.data.imageBuffer); break; } }); } function processImageData(compressedData) { var imageBuffer = pako.inflate(atob(compressedData)); var pixelArray = imageData.data; var newPixelData = new Uint8Array(imageBuffer); var imageDataSize = imageData.data.length; for (var i = 0; i < imageDataSize; i++) { imageData.data[i] = newPixelData[i]; } for(var x = 0; x < 1920; x++) { for(var y = 0; y < 1080; y++) { var idx = (x + y * 1920) * 4; var r = imageData.data[idx + 0]; var g = imageData.data[idx + 1]; var b = imageData.data[idx + 2]; } } self.postMessage({ "message": "imageReady", "imageData": imageData }); } init(); })();
3.2、接投影仪后,如果渲染面积比较大,会出现白屏,需要关闭浏览器硬件加速。
3.3、现场光线较暗,其它玩家干扰,在追踪玩家运动轨迹的过程中,可能会出现抖动的情况,我们需要去除干扰数据。(当突然出现很大位移时,需要将数据移除)
var tracks = this.tracks; var len = tracks.length; // 数据过滤 if(tracks[len-1] !== window.undefined) { if(Math.abs(n - tracks[len-1]) > 0.2) { return; } } this.tracks.push(n);
3.4、当玩家站立,只是左右少量晃动时,我们认为玩家是站立状态。
// 保留5个数据 if(this.tracks.length > 5) { this.tracks.shift(); } else { return; } // 位移总量 var dis = 0; for(var i = 1; i < this.tracks.length; i++) { dis += this.tracks[i] - this.tracks[i-1]; } if(Math.abs(dis) < 0.01) { this.stand(); } else { if(this.tracks[4] > this.tracks[3]) { this.turnRight(); } else { this.turnLeft(); } this.run(); }
七、展望
1、使用HTML5开发Kinect体感游戏,降低了技术门槛,前端工程师可以轻松的开发体感游戏;
2、大量的框架可以应用,比如用JQuery、CreateJS、Three.js(三种不同渲染方式);
3、无限想象空间,试想下体感游戏结合webAR,结合webAudio、结合移动设备,太可以挖掘的东西了……想想都激动不是么!
相关推荐:
Das obige ist der detaillierte Inhalt vonHTML5-Beispielentwicklung für das Teilen somatosensorischer Kinect-Spiele. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!