Đây là bài test mà 99% các tính năng tự lái sẽ bị đánh trượt

Dù một hệ thống tự lái có tối tân tới đâu, ở mức công nghệ hiện nay 99% các dòng xe tự vận hành sẽ gặp tai nạn trong trường hợp cụ thể này. Nghiên cứu do Thatcham Research và BBC đồng thực hiện cho thấy còn lâu nữa máy móc mới có thể thay thế con người sau vô lăng.

Về cơ bản, bài test mà 2 phía thực hiện với xe Tesla trang bị Autopilot có 4 giai đoạn. Đầu tiên, Autopilot khởi động chế độ bám đuôi xe trước, sau đó xe bị theo đuôi này đổi làn để tránh xe (mô hình) đứng im đằng trước nữa, kết quả thu được cực kỳ ổn định: không lần nào xe Tesla dừng lại kịp thời để tránh va chạm, thậm chí còn không có dấu hiệu tự động phanh. Ngay cả khi đã đặt 1 xe mô hình khác ở làn bên trái (mô phỏng lại tình huống giao thông thực tế) cho thấy trước mặt là ngã tư/đoạn đường tắc nghẽn, xe Tesla cũng không nhận biết được điều này.

Liệu ta có thể thật sự tin tưởng xe tự lái sau khi xem bài thử nghiệm của Thatcham Research?

Kết luận được Thatcham Research rút ra ở đây có khá nhiều. Đầu tiên, xe tự lái dù có thể giảm đi stress và mệt mỏi của người dùng rất nhiều nhưng khả năng xử lý chắc chắn không thể được như khi có người thật đằng sau vô lăng. Thêm nữa, dù Tesla Pilot hay bất cứ chương trình tự lái nào có hoạt động ổn định đến đâu, người dùng cũng không thể chủ quan kể cả khi xe đã đạt được mức độ tự lái thứ 5 (hoàn chỉnh, xe không nhất thiết cần vô lăng).

Thatcham cũng cho rằng chính "đặc trưng" của hệ thống tự lái rằng chúng vận hành tưởng chừng rất ổn... cho tới khi gặp tai nạn tạo nên một cảm giác "an toàn" giả tạo cho người dùng, dẫn tới việc quá lệ thuộc vào máy móc. Cũng vì thế mà dù Tesla liên tục đưa ra cảnh báo người dùng của mình về việc phải luôn chú ý tới cung đường trước mặt, số vụ tai nạn liên quan tới xe Tesla chỉ có tăng chứ không hề giảm đi so với trước mặc cho công nghệ của họ đã tốt hơn.

Tuy vậy có lẽ hãng xe Mỹ cũng có trách nhiệm 1 phần vì đã tự quảng bá Autopilot như một hệ thống tự lái hoàn chỉnh trong giai đoạn đầu tiên cộng với cái tên rất dễ gây hiểu nhầm của tính năng này.

Tham khảo: BBC