FaceTracker Sample -
การติดตามใบหน้าที่ไม่รุนแรงโดยใช้ OpenCV เพื่อความสามัคคี
สินทรัพย์นี้เป็นตัวอย่างการติดตามใบหน้าที่ไม่แข็งซึ่งสามารถสร้างแบบจำลองและติดตามส่วนที่ซับซ้อนหลายส่วนของใบหน้าของบุคคลใน webcamtexture แบบเรียลไทม์
รหัสคือการเขียนใหม่ของ https://github.com/masteringopencv/code/tree/master/chapter6_nonrigidfacetracking โดยใช้ "OpenCV for Unity"
・ Texture2dfacetrackersample - โดยการตรวจจับและติดตามหน้าจาก Texture2D วาดจุดและการเชื่อมต่อของใบหน้า
・ WebCamtextureFacetrackersample - โดยการตรวจจับและติดตามหน้าจาก WebCamTexture วาดจุดและการเชื่อมต่อของใบหน้า
・ FaceTrackerArarsample - โดยใช้จุดติดตามของใบหน้าแสดงวัตถุ AR
มีอะไรใหม่ในเวอร์ชันล่าสุด 1.1.4
อัปเดตล่าสุดเมื่อวันที่ 14 มิ.ย. 2016 1.1.4[Common] เพิ่ม AutoresetMode
1.1.3
[Common] ปรับปรุงความเร็วในการประมวลผลเล็กน้อย
1.1.2
[Common] เปลี่ยนเนมสเปซเป็น OpenCVFacetracker (เพื่อหลีกเลี่ยงความขัดแย้ง Namespace และ ClassName)
[Common] แก้ไขคำเตือน CS0618: `UnityEngine.Application.loadLevel (String) 'ล้าสมัย:` ใช้ scenemanager.loadscene'
1.1.0
[สามัญ] เปลี่ยนเป็นวิธีการเคลื่อนย้ายวัตถุ AR
1.0.9
[Common] สนับสนุน“ OpenCV สำหรับ Unity 2.0.0”