¿Cuánto sabemos realmente sobre lo que pueden y no pueden hacer los llamados vehículos auto-conducidos o autónomos? El fatal accidente de tráfico que involucró a un auto de Tesla Motors que chocó mientras usaba su función de piloto automático es un claro recordatorio de que ese tipo de conductores está aún en territorio desconocido, y del elevado costo de esa incertidumbre.

Los sistemas de sensores que permiten la conducción de manos libres de Tesla son el resultado de décadas de avances en visión computarizada y aprendizaje automático. Sin embargo, el fracaso de la función de piloto automático —incorporada en 70.000 vehículos Tesla en todo el mundo desde octubre de 2014— para ayudar a evitar la colisión ocurrida el 7 de mayo, que mató al único ocupante del vehículo, demuestra cuánto le falta aún a la tecnología para contar con vehículos totalmente autónomos.

El accidente ocurrió en una autopista de Florida, cuando un camión semiremolque de 18 ejes hizo un giro a la izquierda en frente de un Tesla Model S 2015 que estaba en modo 'piloto automático' y que no logró aplicar los frenos a tiempo, según señaló un informe preliminar la Administración para la Seguridad Vial en Autopistas Nacionales de EE.UU. (NHTSA, en sus siglas en inglés), que está investigando el incidente. “Ni el piloto automático ni el conductor detectaron el lado blanco del semiremolque en el marco de un cielo intensamente luminoso, por lo que el freno no se aplicó”, se describe en un comunicado que Tesla emitió la semana pasada cuando se informó ampliamente la noticia sobre el accidente. Tesla dice que el piloto automático está desactivado por defecto en los vehículos, y que antes de que los conductores activen la función se advierte que la tecnología todavía está en la fase de prueba. También se advierte que el piloto automático “es una función de asistencia que requiere que el conductor mantenga las manos en el volante en todo momento”, dice la compañía.

Además de investigar lo que sucedió exactamente en Florida, Tesla está investigando un accidente que ocurrió en Pennsylvania el 1 de julio  —el día después de que la NHTSA anunció su prueba— y que involucró a un Tesla Modelo X 2016 que pudo haber estado usando piloto automático en el momento del accidente, de acuerdo con el Detroit Free Press. Tesla dice que no hay pruebas de que el piloto automático estuviera en uso durante el percance, aunque la Policía del estado de Pennsylvania afirma que el conductor dijo que el vehículo estaba usando la función de auto-conducción.

FALLAS DE VISIÓN

La descripción que hizo Tesla del accidente de Florida sugiere que el sistema de visión computarizada del vehículo fue probablemente el quid del problema, dice Ragunathan Rajkumar, profesor de ingeniería eléctrica e informática en el CyLab de la Universidad Carnegie Mellon y veterano de los esfuerzos llevados a cabo en la universidad para desarrollar vehículos autónomos, incluyendo el Boss SUV que ganó la competencia Urban Challenge 2007 de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA). La visión por computadora permite que las máquinas detecten, interpreten y clasifiquen los objetos registrados por una cámara, pero se sabe que la tecnología es imperfecta “por un muy buen margen”, dice Rajkumar.

La paradoja de los sistemas de visión por computadora es que con el fin de clasificar un objeto rápidamente, en general usan cámaras de baja resolución que no captan grandes cantidades de datos. Habitualmente son dos megapíxeles, mucho menos que la cámara promedio del smartphone. “El único modo de conseguir alta fiabilidad [en una tecnología de auto-conducción] es combinar datos de dos o más sensores”, dice Rajkumar. Los automóviles con funciones de auto-conducción típicamente incluyen cámaras y radares así como un LiDAR (acrónimo en inglés de Light Detection and Ranging), un sistema de teledetección basado en un sensor que emite pulsos laser.

Los vehículos de Tesla dependen de la tecnología de visión artificial proporcionada por Mobileye, Inc. Las cámaras de la compañía actúan como sensores para ayudar a advertir a los conductores cuando están en peligro de golpear la parte trasera de otro vehículo, y en algunos casos pueden disparar un sistema de freno de emergencia. En un comunicado emitido la semana pasada, la empresa señaló que el incidente de Tesla “involucró a un vehículo atravesando lateralmente”, una situación ante la cual los actuales sistemas de frenado automático de emergencia de la compañía no están diseñados para responder. Las funciones que podrían detectar este tipo de giro lateral frente a la trayectoria de un vehículo no estarán disponibles para Mobileye hasta 2018, dijo la compañía. El co-fundador de Mobileye, Amnon Shashua, reconoció el accidente la semana pasada durante una conferencia de prensa convocada para presentar una asociación con la empresa automotriz BMW y el fabricante de chips Intel, que prometió entregar un vehículo autónomo conocido como iNEXT en 2021. “No alcanza con decirle al conductor que necesita estar alerta”, dijo Shashua. “Es necesario decirle por qué tiene que estar alerta”. Pero Shashua no dio detalles sobre cómo debería hacerse eso.

COMPRADOR CUIDADOSO

Los consumidores deben ser conscientes de las capacidades y limitaciones de cualquier tecnología de auto-conducción, dice Steven Shladover, director del programa para la movilidad en PATH (California Partners for Advanced Transportation Technology), una iniciativa de investigación y desarrollo de los sistema de transporte inteligente, de la Universidad de California, en Berkeley. “Mi primera reacción [ante el accidente] fue que era inevitable, porque la tecnología está limitada en sus posibilidades y en muchos casos los usuarios no son realmente conscientes de lo que son esas limitaciones”, dice Shladover, que en junio de 2016 escribió en Scientific American acerca de los desafíos de construir vehículos autónomos. “Al llamar a algo ‘piloto automático’ o al usar términos como ‘auto-conducción’, de algún modo se anima a la gente a pensar que los sistemas son más capaces de lo que realmente son, y ese es un problema serio”.

Los vehículos necesitan mejores software, mapas, sensores y comunicación, así como programación para hacer frente a cuestiones éticas antes de que realmente puedan ser considerados “autónomos”, dijo Shladover. Estas mejoras llegarán pero siempre habrá situaciones para las cuales no estarán listos para manejarlas adecuadamente, detalla. “Hoy nadie tiene una metodología de ingeniería de software que pueda garantizar que los sistemas funcionen de manera segura en aplicaciones complejas, particularmente en sistemas con una tolerancia muy baja para las faltas, como conducir”, añade.

Los vehículos con funciones de auto-conducción cada vez más avanzadas están emergiendo como una fuerza importante en la industria automotriz por varias razones: Algunos grandes fabricantes de automóviles ven a la tecnología como una forma de diferenciar sus marcas y promocionar nuevos dispositivos de seguridad en sus modelos de gama más alta. Además, existe una demanda de sistemas que supervisen el estado de alerta del conductor al volante, así como software que emiten advertencias cuando un vehículo se desvía de su carril y se hace cargo del sistema de frenado cuando un vehículo se atraviesa; el mercado solo recibirá más de esas funciones a medida que se hagan más accesibles. Además, las muertes por vehículos a motor aumentaron en 7,7 por ciento en 2015, y 94 por ciento de los accidentes pueden relacionarse con errores o elecciones humanas, según un informe de la NHTSA presentado el 1 de julio.

La búsqueda por introducir nuevas funciones de conducción autónoma se desarrollará rápidamente en los próximos cinco años, de acuerdo con una serie de empresas que trabajan con esa tecnología. Además del iNEXT de BMW, para 2017 se espera un sistema de control de crucero semiautónomo de manos libres de General Motors (GM). El próximo Mercedes Clase E vendrá con varias funciones autónomas, incluyendo un asistente activo de cambio de carril que usa un sistema basado en cámaras y radar. Gran parte de los avances más allá de las capacidades básicas de auto-conducción dependerá de la orientación del gobierno federal. En marzo, el Sistema de Transporte Nacional del Departamento Transporte de Estados Unidos revisó los estándares federales de seguridad de vehículos a motor y concluyó de que el aumento de los niveles de automatización para el estacionamiento, el cambio de carril, la prevención de colisiones y otras maniobras es aceptable, siempre que el vehículo también tenga asiento para el conductor, volante, pedal de freno y otras funciones que comúnmente se encuentran en los automóviles actuales.

Google había comenzado a recorrer un camino similar al ofrecer funciones de auto-conducción hace unos seis años, pero abruptamente cambió de dirección en 2013 para centrarse en vehículos totalmente autónomos, por razones similares a las circunstancias que rodearon el accidente de Tesla. “Desarrollar un vehículo que pueda hacerse totalmente cargo de conducir es crucial para la seguridad”, dijo Chris Urmson, director del proyecto de vehículos autónomos de Alphabet, una empresa matriz de Google, durante una audiencia en marzo ante el Congreso de EE.UU. “En nuestras propias pruebas hemos visto que no siempre se puede confiar en que los conductores humanos puedan asumir y abandonar la tarea de conducir cuando el auto los está animando a sentarse y relajarse”.

Del mismo modo que los experimentos de Google provocó que la empresa reconsidere sus esfuerzos de automatizar la conducción, el accidente de Tesla, aunque no necesariamente sea un retroceso, “llevará  justificadamente a una mayor cautela”, dice Rajkumar.