Ni de lejos está resultando la conducción autónoma perfecta. La primera víctima del sistema de Tesla de asistencia a la conducción lo puso de manifiesto -ojo, la conducción automática no es sinónimo de conducción autónoma, y ni siquiera en este modo estamos a salvo de sufrir un accidente. Se siguen realizando multitud de investigaciones para mejorar la seguridad de la conducción inteligente, y extraoficialmente se ha realizado otra pruebas cuyos resultados vuelven a poner en duda la fiabilidad de Tesla.
La Universidad de Carolina del Sur, la Universidad de Zhejiang y la compañía de seguridad china Qihoo 360 han logrado hackear los sensores ultrasónicos del piloto automático de forma que crea que no hay nada ni nadie a su alrededor, cuando no es así ¿La razón? Alertar a las compañías que trabajen con sistemas autónomos de que el piloto automático puede ser confundido, haciendo que vea objetos que no existen o hacer que obstáculos reales desaparezcan.
De momento, el experimento ha dado sus frutos con el vehículo parado; los investigadores han de probarlo aún a velocidades elevadas. Tanto Tesla como los investigadores dudan de que se puedan producir accidentes por un ataque similar, según han declarado a Forbes. La empresa líder en automoción alega que, para hackear el piloto automático, se necesitan dos generadores de señales de radio valorados en 90.000 dólares cada uno además de dispositivos de interferencia por lo que no está al alcance de cualquier desequilibrado aficionado.
Los resultados de esta investigación serán publicados en la próxima conferencia de hackers DEF CON, hasta entonces podemos observar cómo lo han hecho en este vídeo:
¿Nos atreveremos a coger un coche autónomo después de esto?