(14/30) การทำงานของ Tesla Vision
วันก่อนได้มีโอกาสไปฟังช่อง Blink Drive พูดถึงเรื่อง Tesla Vision คิดว่าน่าสนใจดี ก็เลยไปหาข้อมูลเพิ่มเติม อยากจะสรุป (หลังจากไม่มีอะไรจะเขียนใน #30DaysWritingChallenge แล้ว) และก็ทำความเข้าใจไว้หน่อย ว่า การกล้องของ Tesla ทั้ง 8 ตัว บนรถยนต์ Tesla เนี่ย มันทำงานยังไง
Tesla Vision เป็นระบบการประมวลผลภาพจากกล้องล้วนๆทั้ง 8 ตัว เพื่อที่จะใช้ในการขับขี่อัตโนมัติ นั่นแหละ มันก็เป็นเทคโนโลยีที่ค่อนข้างทันสมัย
กล้องทั้ง 8 ตัวก็จะอยู่ที่…
- ด้านหน้า x2
- ด้านข้าง x2
- ด้านหลัง x1
- ตรงเสา x2
- ภายใน x1
โดยก็จะใช้เทคโนโลยีที่เรียกว่า การเย็บภาพ (Stich Image) เอาภาพจากกล้องทุกๆตัวมาต่อกัน จนได้ภาพที่เป็น 360 องศา โดยใช้ Neural Network ที่ชื่อ HydraNet ในการประมวลผลจากกล้องทั้ง 8 ตัว
HydraNet เปรียบเสมือนมังกรที่มีหลายหัว ตัดหัวนึงทิ้ง แล้วก็จะงอกออกมาอีกหลายหัว (ไม่ใช่ละ นั่นมันในหนัง Marvel)
HydraNet เป็นชื่อระบบ Neural Network (ใครเคยลงเรียน Computer Intelligence อาจจะคุ้นๆกับสิ่งนี้) ใน Tesla Vision ก็จะทำหน้าที่ 8 อย่าง โดยแต่ละอย่างเปรียบเสมือน "หัว" ของไฮดรา ดังนี้
- Object Detection: ตรวจจับวัตถุรอบคัน เช่น รถยนต์, คน, จักรยาน, มอเตอร์ไซค์ หมา แมว โดยระบุประเภทของวัตถุ ตัวอย่างเช่น มีข่าวรถ Tesla ในไทยเบรกกะทันหันเนื่องจากตรวจจับคนบนรถกระบะสองแถวผิดพลาด เนื่องจากยังไม่มี Training Data เกี่ยวกับรถประเภทนี้ ระบบจึงเข้าใจผิดว่ามีคนวิ่งตามรถกระบะ 555
- Lane Detection: ตรวจจับเส้นแบ่งเลน เพื่อรักษาตำแหน่งรถให้อยู่ในเลน
- Road Edge Detection: ตรวจจับขอบถนน แสดงผลเป็นเส้นสีแดงในระบบแสดงผล เพื่อให้รถทราบตำแหน่งของขอบถนน ป้องกันการขับรถตกถนน
- Traffic Light and Signal Detection: ตรวจจับสัญญาณไฟจราจร และป้ายจำกัดความเร็ว โดยเฉพาะในอเมริกาที่ให้ความสำคัญกับป้ายจำกัดความเร็วมาก ระบบจะปรับความเร็วรถตามป้ายนั้นๆ ส่วนในไทย ระบบอาจยังไม่สามารถปรับความเร็วรถได้ แม้จะมองเห็นป้ายแล้วก็ตาม
- Depth Estimate: ประเมินระยะห่างระหว่างรถกับวัตถุ โดยใช้กล้องเป็นหลัก เนื่องจากรถ Tesla รุ่นใหม่ไม่มีเรดาร์แล้ว
- Free Space Detection: ประเมินพื้นที่ว่างด้านหน้า เพื่อปรับความเร็วรถให้เหมาะสมกับสภาพการจราจร แม้ความเร็วจะอยู่ใน Speed Limit แต่ถ้ารถติด ระบบก็จะลดความเร็วลง
- Object Tracking and Prediction: ติดตามตำแหน่งของวัตถุรอบคัน และคาดการณ์การเคลื่อนที่ในอนาคต
- Velocity Estimation: ประเมินความเร็วของวัตถุ
โดยสรุป HydraNet ก็ทำหน้าที่เหมือนการ “มองเห็น” ภาพรวมของสิ่งแวดล้อม เพื่อที่จะทำความ “เข้าใจ” จะได้ทำการตัดสินใจแทนเราให้ได้อย่างมีประสิทธิภาพ รวมไปถึงการช่วยแจ้งเตือนต่างๆ ในกรณีที่ไม่ได้ใช้ระบบการขับขี่แบบไร้คนขับด้วย
ยกตัวอย่างที่เห็นได้ชัดๆ คือ ตอนที่เราขับรถกลับมาจาก กทม แล้วก็เริ่มเหนื่อย ง่วงๆ ตอนนั้นก็กำลังเปิดเพลงฟังเพลินๆเลย ถนนก็เป็นทางตรง แต่พอมันจับได้ว่าระยะทางระหว่างรถข้างหน้าเริ่มลดลงแล้ว เรายังไม่ลดความเร็วลง มันก็หรี่เสียงเพลงในรถ แล้วก็ส่งเสียงแจ้งเตือน จอขึ้นเป็นสีแดง เหมือนเตือนเราให้ตื่นได้แล้ว ไอ้คนขับ อะไรประมาณนี้
ปล.Tesla รุ่นหลังๆมาจะใช้กล้องล้วนๆ ไม่ได้ใช้เรดาร์ กับกล้อง เหมือนในรุ่นก่อนๆแล้ว ด้วยเหตุผลบางประการที่ Elon Musk เคยกล่าวไว้ ระบบกล้องอย่างเดียวนั้นเพียงพอต่อการใช้งาน และเชื่อว่าสามารถพัฒนาให้มีความสามารถเทียบเท่าหรือเหนือกว่า Lidar ซึ่งเป็นเลเซอร์ใช้วัดระยะห่าง ได้ในอนาคต