Sobre la Inteligencia Artificial y Robots

Inteligencia Artificial y Autos Autonomos
Inteligencia Artificial y Autos Autonomos

Robots en la industria

  • ¿Qué es el sistema operativo del robot?
  • ¿Cuáles son las organizaciones robóticas más importantes?

El Maestro creó a los humanos primero como el tipo más bajo, más fácil de formar. Poco a poco, los reemplazó con robots, el siguiente paso más alto, y finalmente me creó para que tomara el lugar de los últimos humanos.

— Isaac Asimov, Yo, Robot *

Cuando la gente habla de inteligencia artificial, a menudo piensa en robots móviles. Pero en informática, la IA es el campo centrado en el desarrollo del cerebro no solo de estos robots, sino también de los ordenadores que quieren lograr ciertos objetivos. Estos robots no utilizan ninguno de los modelos de aprendizaje profundo de los que hablamos anteriormente. En su lugar, tienen software codificado y escrito a mano.

BOSTON DYINAMICS

En Florida, algunas personas ven una competencia entre robots para alcanzar un objetivo específico mientras logran los diferentes objetivos más rápido y con mayor precisión que sus oponentes. Un robot mira una puerta con sus sensores (cámaras y láseres) para decidir qué hacer a continuación y abrirla. Usando su brazo robótico, empuja lentamente la puerta y va al otro lado. El equipo responsable del robot a los aplausos mientras completa una de las tareas.

Esta historia puede sonar como ciencia ficción o desde un futuro lejano, pero la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) organizó ese concurso, el DARPA Robotics Challenge (DRC), en diciembre de 2013. Boston Dynamics creó el robot que abrió la puerta, Atlas, pero muchos otros robots también intentaron estas tareas. Y para cada robot, los equipos de desarrollo que los programaron observaron con impaciencia. * El objetivo de la RDC era que los robots realizaran trabajos independientes inspirados en situaciones peligrosas para los humanos, como una falla en una planta de energía nuclear. La competencia probó las capacidades de agilidad, detección y manipulación de los robots. A primera vista, el trabajo parece bastante sencillo, como caminar sobre el terreno y abrir puertas, pero son difíciles de lograr para los robots. La tarea más difícil fue caminar sobre una superficie desigual porque es difícil para los robots mantenerse equilibrados. La mayoría de los robots de la competencia fallaron y no completaron muchas de las tareas porque funcionaron mal o el trabajo era demasiado difícil. Atlas logró la mayor cantidad de tareas de cualquiera de los competidores.

La gerente del programa DARPA, Gill Pratt, dijo sobre el prototipo: “Un niño de 1 año apenas puede caminar, un niño de 1 año se cae mucho, aquí es donde estamos ahora mismo”. * Boston Dynamics reveló Atlas el 11 de julio de 2013. En la primera aparición pública, el New York Times declaró: “Un ejemplo sorprendente de cómo las computadoras están empezando a crecer las piernas y moverse en el mundo físico”, describiendo al robot como “un paso gigante, aunque inestable, hacia la tan esperada era de los robots humanoides”. *

Boston Dynamics tiene el audaz objetivo de hacer robots que sean mejores que los animales en movilidad, destreza y percepción. Al construir máquinas con movimiento y equilibrio dinámicos, sus robots pueden ir casi a cualquier lugar, en cualquier terreno de la Tierra. También quieren que sus robots manipulen objetos, los sostengan firmes y caminen por ahí sin dejarlos caer. Y se están acercando a sus objetivos a medida que avanza el tiempo. Atlas sigue mejorando con un hardware más ligero, más capacidades y un software mejorado.

Figura: La segunda versión de Atlas.
Figura: La segunda versión de Atlas.

Atlas era mucho más avanzado que los primeros robots de la década de 1960, como Shakey de Stanford. Pero Boston Dynamics quería mejorar su robot, así que diseñaron una segunda versión: Atlas, The Next Generation. Lanzaron por primera vez un vídeo de YouTube en febrero de 2016 durante el cual caminó sobre la nieve. Los vídeos posteriores mostraron a Atlas haciendo una voltereta hacia atrás y saltando sobre un perro acostado en la hierba. *

Para construir esta versión actualizada, Boston Dynamics utilizó la impresión 3D para hacer que partes del robot se parecieran más a un animal. Por ejemplo, su pata superior, que tiene vías hidráulicas, actuadores y filtros, están incrustadas e impresas en una sola pieza. Eso no era posible antes de la impresión 3D. Diseñaron la estructura utilizando el conocimiento de las cargas y comportamientos de Atlas, basándose en datos de interacciones anteriores de los robots originales de Atlas con el medio ambiente. También añadieron simulaciones de software. Con la técnica de impresión 3D, Boston Dynamics transformó lo que una vez fue un robot grande, voluminoso y lento que pesaba alrededor de 375 libras en una versión mucho más delgada con 165 libras. *

Boston Dynamics no solo se centra en la construcción de robots humanoides, sino que también está desarrollando cyborgs de aspecto diferente. Tienen dos perros robóticos, Spot y SpotMini. * Al igual que Atlas, los perros pueden entrar en áreas inseguras para los humanos para despejar el espacio. Usando cámaras, los perros miran el terreno, evalúan la elevación del suelo y descubren dónde pueden pisar y cómo escalar a otra región. * Estas máquinas robóticas siguen mejorando y se vuelven más ágiles y menos torpes. La última versión canta la exitosa canción de Bruno Mars “Uptown Funk”. Creo que esto es solo el comienzo de la revolución robótica. Spot y otros robots pueden terminar en nuestra vida cotidiana.

SISTEMAS KIVA

Gigantes como Amazon han estado trabajando en robots para aumentar la productividad de sus empresas. En un almacén de Amazon, los pequeños robots ayudan a los empacadores para el gigante minorista en línea. * Estas máquinas automatizadas recorren el piso del almacén, entregando estantes llenos de artículos a los humanos, que luego recogen, empaquetan y envían los artículos sin tomar más de un par de pasos.

Figura: Un robot Kiva en un almacén de Amazon.
Figura: Un robot Kiva en un almacén de Amazon.

Esta automatización es un cambio considerable para Amazon, donde los humanos solían seleccionar y empacar artículos ellos mismos solo con la ayuda de cintas transportadoras y carretillas elevadoras. Con la introducción de los robots de Kiva Systems, los procesos del almacén de Amazon cambiaron por completo. Ahora, los humanos se paran en un lugar establecido, y los robots se mueven por el almacén, aliviando la mayor parte del trabajo manual.

Este cambio se produjo cuando Amazon adquirió Kiva Systems de Mick Mountz por 775 millones de dólares en 2012. * Después de trabajar años en procesos comerciales en Webvan, una startup de comercio electrónico ahora desaparecida, Mick se dio cuenta de que una de las razones de la caída se debía a los altos costos de cumplimiento de pedidos. * En 2001, después de que explotara la burbuja de las punto-com, la compañía se declaró en bancarrota y más tarde se convirtió en parte de Amazon. Mick encontró una mejor manera de manejar los pedidos dentro de los almacenes y comenzó Kiva Systems con la ayuda de expertos en robótica.

En un almacén típico, los humanos llenan pedidos deambulando por filas de estantes, a menudo llevando escáneres portátiles de radiofrecuencia para localizar productos. Los sistemas informáticos y las cintas transportadoras aceleraron las cosas, pero solo hasta cierto punto. Sin embargo, con la ayuda de los robots, los trabajadores de Amazon procesan los artículos tres veces más rápido y no necesitan buscar productos. Cuando un pedido llega a Amazon.com, un robot conduce alrededor de una cuadrícula de estantes, localiza el estante correcto, levanta el estante hacia su espalda y se lo entrega a un trabajador humano. * A continuación, la persona completa el proceso recogiendo el pedido, empaquetado y ensendolo. Los humanos no descansan mucho, por lo que para evitar el error humano, un láser rojo parpadea en el artículo para que el ser humano sepa qué recoger. El robot, entonces, devuelve el estante a la cuadrícula. Tan pronto como el robot quita el estante, llega otro para que el humano siempre esté trabajando.

EL SISTEMA OPERATIVO DEL ROBOT

Para funcionar, los robots necesitan un sistema operativo que pueda destilar instrucciones de alto nivel hasta el hardware. Este requisito es el mismo que para los ordenadores estándar que necesitan comunicarse con su disco duro y pantalla. Los robots necesitan transmitir información a sus componentes, como brazos, cámaras y ruedas. En 2007, Scott Hassan, un primer ingeniero de Google que anteriormente trabajó con Larry Page y Sergey Brin, comenzó Willow Garage para avanzar en la robótica. El equipo desarrolló el Sistema Operativo de Robots (ROS) para sus propios robots, uno de los cuales era el Personal Robot 2 (PR2). En última instancia, compartieron el sistema operativo de código abierto con otras empresas antes de cerrar sus puertas en 2014. *

El PR2 tenía dos brazos fuertes que realizaban tareas delicadas como pasar una página en un libro. Contenía sensores de presión en los brazos, así como cámaras estéreo, un sensor de detección y rango de luz (LIDAR) y sensores de medición inercial. * Estos sensores proporcionaban datos para que el robot navegara en entornos complejos. Willow Garage desarrolló ROS para entender las señales de estos sensores y para controlarlas.

Figura: Robot personal 2.
Figura: Robot personal 2.

 

ROS incluía una capa intermedia, que se comunicaba entre el software escrito por los desarrolladores y el hardware, así como software para el reconocimiento de objetos y muchas otras tareas. * Proporcionó una plataforma estándar para programar diferentes hardware y una creciente variedad de paquetes que dieron a los robots nuevas capacidades. La plataforma incluía bibliotecas y algoritmos para la visión, la navegación y la manipulación, entre otras cosas.

ROS permitió a los aficionados e investigadores desarrollar más fácilmente aplicaciones sobre el hardware. Con ROS, los robots tocan instrumentos, controlan máquinas acrobáticas de alto vuelo, caminan y doblan la ropa. * Actualmente, ROS está en desarrollo por otras empresas de hardware, como las empresas de automóviles autónomos. La versión más reciente del software, ROS 2.0, tiene muchas capacidades nuevas, incluido el control en tiempo real y la capacidad de gestionar múltiples robots. A medida que estos sistemas mejoran, es posible que eventualmente tengamos robots que realicen las tareas de limpieza de nuestra casa.

Aprendizaje automático y robótica

  • ¿Cuál es el desafío de un millón de objetos?
  • ¿Hay conjuntos de datos para la robótica?
  • ¿Cómo se aplica el aprendizaje profundo a la robótica?

” ¿Los robots heredarán la tierra? Sí, pero serán nuestros hijos.”

— Marvin Minsky  *

Los robots aún no pueden operar de forma fiable en los hogares y laboratorios de las personas ni manipular y recoger objetos. * Si queremos tener robots en nuestra vida cotidiana, es esencial crear robots que puedan detectar, localizar, manejar y mover de manera robusta, y cambiar el entorno de la manera que queremos. Necesitamos robots que puedan recoger tazas de café, servirnos, pelar plátanos o incluso caminar sin tropezar ni chocar contra las paredes. El problema es que el entorno humano es complejo, y los robots de hoy en día no pueden recoger la mayoría de los objetos. Si le pides a un robot que recoja algo que nunca ha visto antes, casi siempre falla. Para lograr ese objetivo, debe resolver varios problemas difíciles.

Por ejemplo, si le pides a un robot que recoja una regla, el robot primero necesita determinar qué objeto es una regla, dónde está y, finalmente, calcular dónde poner su pinza en función de esa información. O, si quieres que un robot recoja una taza de café, el robot debe decidir dónde recogerlo. Si la pinza recoge la taza desde el borde inferior, podría volcarse y derramarse. Por lo tanto, los robots necesitan recoger diferentes objetos de diferentes ubicaciones.

DESAFÍO DE SELECCIÓN DE AMAZON

El desafío final para Amazon es construir robots para hacer toda la recolección, el embalaje y el envío en sus almacenes,* y no están descansando en alcanzar ese ambicioso objetivo. * Por lo tanto, Amazon creó el Amazon Picking Challenge anual, celebrado de 2015 a 2017, para que equipos de todo el mundo hagan que los robots sobresalgan en la recogida de objetos. Esta fue la competencia de referencia para recoger y manejar diferentes objetos. Amazon eligió los artículos y los equipos pasaron meses optimizando sus robots para la tarea. Desafortunadamente, ninguno de los robots programados podía manejar ningún objeto fuera de los parámetros originales, lo que significa que los robots estaban demasiado entrenados e incapaces de aprender fuera de los datos de entrenamiento.

Figura: El robot que Stefanie Tellex programó para recoger objetos.
Figura: El robot que Stefanie Tellex programó para recoger objetos.

En el desafío de Amazon, cada equipo creó un robot con cámaras y procesadores, que tenía que recoger artículos y colocarlos en un lugar específico. Los equipos compitieron frente a una audiencia por el dinero de los premios. Una competición incluyó 25 artículos para que los robots los recuperaran, incluyendo un pato de goma, una bolsa de bolas y una caja de galletas Oreo. Los equipos tuvieron 20 minutos para recoger y empaquetar tantos artículos como fuera posible de una estantería de Amazon. *

Algunos equipos usaban garras, pero la mayoría usaban un sistema de succión conectado a un vacío. El desafío radica en el hecho de que la mano humana tiene 27 grados de libertad, y nuestro cerebro reconoce numerosos objetos. Pero cada año, los equipos se desempeñaron cada vez mejor. En algún momento, en lugar de que los humanos hagan el tedioso trabajo de recoger, empacar y enviar paquetes, los robots lo harán las 24 horas del día, los 7 días de la semana, entregando paquetes más baratos y rápidos.

STEFANIE TELLEX

Para resolver el problema de manejar diferentes objetos, un enfoque era hacerlos identificables para el robot agregando códigos QR encima de los objetos para que el robot sepa exactamente qué objeto es y cómo manejarlo. Sin embargo, este enfoque no funciona en el mundo real.

Figura: Profesora Stefanie Tellex. *
Figura: Profesora Stefanie Tellex. *

Para resolver este problema, la profesora Stefanie Tellex de la Universidad de Brown trabaja en un enfoque completamente diferente. Ella hace que los robots aprendan por sí mismos a manipular nuevos objetos automatizando el proceso de aprender a recogerlos. Los robots necesitan aprender a recoger artículos al igual que los humanos para que no tengan que estudiar un objeto antes de poder recogerlo. En otras palabras, los robots necesitan aprender a recoger nuevos objetos con alta precisión y alta sensibilidad (o recuerdo).

Tellex construyó un sistema para robots que permite darle a un robot un nuevo objeto. Para ello, creó una percepción de vista de luz, que transforma la imagen que captura desde su cámara en una proyección del objeto, lo que permite al robot captarlo. El sistema crea una cámara sintética utilizando un software para renderizar una proyección ortográfica del elemento. El robot de Tellex mueve su brazo por encima y alrededor del objeto, tomando varias fotos con su cámara y midiendo su profundidad con su sensor infrarrojo. Al combinar diferentes representaciones, el robot puede crear una imagen del objeto desde cualquier ángulo posible. La idea detrás de la técnica es que el robot no solo averigüe la intensidad de la luz que llega a la cámara, sino también la dirección de los rayos individuales. Esto hace posible construir un modelo 3D del objeto y la escena. El robot es entonces capaz de detectar y localizar el objeto dentro de dos milímetros, que es la limitación de una cámara.

Luego, intenta diferentes agarres para levantar el artículo. Una vez agarrado, el robot juega con el objeto para aprender más sobre él y lo agita para asegurarse de que el agarre esté seguro. Cuando tiene éxito, el robot ha aprendido a recoger un nuevo artículo. Después de esta experiencia de aprendizaje, puede manipular este objeto de manera robusta. No solo eso, sino que el robot puede realizar este proceso de aprendizaje una y otra vez con diferentes objetos. Junto con el sistema de percepción de la vista de la luz, el grupo de Tellex utiliza el aprendizaje de refuerzo para entrenar a los robots para recoger objetos desconocidos, incluso cuando las condiciones de iluminación son difíciles. El robot aprende probando diferentes agarres y un comportamiento de refuerzo que parece producir resultados positivos. Esto permite al robot de Tellex recoger objetos en situaciones normalmente difíciles, como agarrar un tenedor de un fregadero con agua corriente, lo que sería extremadamente difícil de programar manualmente. Pero todo este desarrollo de robótica no ocurriría sin datos de entrenamiento o un sistema operativo.

CONJUNTOS DE DATOS PARA ROBÓTICA

Para que los robots no tengan que manipular y aprender a agarrar un nuevo objeto cada vez que lo ven, Tellex creó una base de datos de objetos que los robots normalmente captarían. * Creó un Desafío de un millón de objetos que aceleró el campo recopilando y compartiendo datos de estos objetos. La gente no suele tomar fotos de las manijas de las puertas, sino que toma fotos de cosas más interesantes o selfies, por lo que Tellex tuvo que crear un conjunto de datos específico para sus necesidades.

Piensa en esto como ImageNet para robots. La idea es que un robot pueda aprender de esta enorme base de datos, y cuando el robot esté en un nuevo entorno, ya sabrá cómo agarrar cada objeto en función de los datos recopilados por otros robots. Tellex y su grupo ya han recopilado datos de alrededor de 200 artículos, incluido un barco de plástico y un pato de goma, y otros científicos pueden contribuir con los datos de su robot al proyecto. El objetivo de Tellex es construir una biblioteca con un millón de objetos diferentes para que, finalmente, los robots puedan identificar cualquier objeto frente a ellos y recogerlo.

Investigadores de Princeton y la Universidad de Stanford, dirigidos por la estudiante de doctorado Angela Dai y el profesor Thomas Funkhouser, crearon un conjunto de datos, ScanNet, que incluye vistas 3D de miles de escenas y millones de objetos anotados como sofás y lámparas. * Crearon este conjunto de datos escaneando alrededor de 1.500 escenas usando un iPad con un sensor de profundidad infrarrojo como el Microsoft Kinect. El conjunto de datos resultante es un orden de magnitud más grande que el segundo conjunto de datos más grande. El laboratorio de investigación de IA de Google ya utiliza este conjunto de datos para entrenar a sus robots en simulaciones para que puedan aprender a elegir objetos de un cubo. ScanNet es extremadamente importante para los algoritmos de aprendizaje profundo.

En la Universidad de California, Berkeley, los investigadores también construyeron un conjunto de datos que comprende más de 1000 objetos con información sobre su forma 3D, apariencia visual y la física de comprenderlos.* Con un conjunto de datos de este tipo, los mismos investigadores construyeron robots que pueden recoger y agitar objetos en el aire sin dejarlos caer el 98 % del tiempo. Esta es una tasa de éxito mucho más alta en comparación con los intentos anteriores. Los resultados fueron, en parte, porque entrenaron el software para el robot en una simulación 3D antes de usarlo. Los modelos entrenados en simulación se utilizan con éxito en el mundo físico.

APRENDIZAJE PROFUNDO Y ROBÓTICA

Al realizar tareas, los robots todavía se ven robóticos y sus acciones torpes porque siguen un paradigma sentido-plan-acto. * Eso significa que para cada momento que el robot interactúa con el mundo, debe observar el mundo, crear un modelo de lo que siente, formar un plan basado en eso y luego ejecutarlo. El viejo enfoque resolvió este problema de forma modular y tendía a no funcionar en entornos desordenados, que son muy naturales en el mundo real. La percepción suele ser imprecisa, por lo que los modelos a menudo están equivocados y necesitan cambiar.

Para resolver este problema y hacer que los robots se muevan más rápido y sean más reflexivos, Google utiliza el aprendizaje profundo para sus modelos, entrenando las redes neuronales utilizando el algoritmo de aprendizaje de refuerzo, para que los robots puedan actuar rápidamente. Google primero entrenó a sus robots para imitar el comportamiento humano observando demostraciones humanas de la acción prevista. * Construyeron un robot que, por ejemplo, podría verter de una taza después de menos de 15 minutos de observar a los humanos realizando esta tarea desde diferentes puntos de vista.

Google también está trabajando con brazos robóticos para que aprendan a agarrarse. Crearon un algoritmo de aprendizaje de refuerzo que enseña un modelo de aprendizaje profundo utilizado en el robot para aprender a agarrar objetos. * Utilizó siete robots con un experimento que ejecutaba un total de 800 horas de robot en el transcurso de cuatro meses. Con la información a mano, Google entrenó simulaciones del robot con 10 GPU y muchas CPU, procesando alrededor de 580.000 intentos. *

El modelo aprendido le dio a los brazos del robot una tasa de éxito del 96 % en 700 ensayos en objetos no vistos anteriormente. Google demostró que con el aprendizaje profundo y el aprendizaje de refuerzo, es posible entrenar robots para que agarren objetos desconocidos con éxito. Google no es la única empresa que construye modelos de aprendizaje profundo para robots; otros institutos de investigación, como OpenAI, también lo han hecho con éxito. *

Coches autónomos

  • ¿Cómo funcionan los coches autónomos?
  • ¿Cómo funciona el software autónomo de Tesla?
  • ¿Cómo funciona el piloto automático?

Ya sea que creas que puedes, o que crees que no puedes, tienes razón. *

Muchas empresas actualmente están construyendo tecnología para coches autónomos, y otras están entrando en el campo. Los tres actores más transformadores del espacio: Tesla, Waymo de Google y Comma.ai de George Hotz. Cada una de estas empresas aborda el problema con enfoques muy diferentes. En cierto modo, los coches autónomos son robots que requieren resolver problemas tanto de hardware como de software. Un coche autónomo necesita identificar su entorno circundante con cámaras, radar u otros instrumentos. Su software necesita entender lo que hay alrededor del coche, conocer su ubicación física y planificar los próximos pasos que debe seguir para llegar a su destino.

TESLA

Tesla, fundada por Martin Eberhard y Marc Tarpenning en 2003, es conocida como la manzana de los coches por su revolucionario diseño de automóviles y su pensamiento fuera de la caja al crear sus vehículos. * Tesla desarrolla sus coches basándose en los primeros principios, desde el sistema de aire acondicionado que utiliza rejillas de ventilación perpendiculares hasta cómo forman su chasis y suspensión. Con su innovación y trabajo, el Tesla Model 3 es el coche más seguro del mundo,* seguido por el Tesla Model S y el Model X.* Pero Tesla no solo es innovador con su hardware, sino que también invierte mucho en su tecnología de piloto automático.

En 2014, Tesla instaló silenciosamente varios hardware para aumentar la seguridad de sus vehículos: 12 sensores ultrasónicos, una cámara orientada hacia adelante, un radar frontal, un GPS y frenos controlados digitalmente. * Unos meses más tarde, lanzaron un paquete tecnológico por 4.250 dólares adicionales para permitir el uso de los sensores. En una rápida racha de lanzamiento, Tesla lanzó características en los próximos meses, y un año después, lanzó su primera versión del piloto automático, conocida como Tesla Versión 7.0, para 60.000 coches.

El piloto automático le dio a los conductores características como la dirección dentro de un carril, el cambio de carril y el estacionamiento automático. Sin embargo, otras empresas, como Mercedes, BMW y GM, ya ofrecían algunas de las capacidades. Pero la autoguiada fue un gran salto hacia la autonomía que se lanzó de repente, de la noche a la mañana, como una actualización de software. Los clientes de Tesla estaban encantados con la actualización del software, publicando vídeos en Internet del software “conduciendo” sus Teslas, manos libres.

Tesla no solo fabrica el software, sino también el hardware para sus coches, lo que le permite lanzar nuevas características y actualizar su software por aire (OTA). Debido a que ha lanzado coches que tienen los componentes de hardware necesarios para la capacidad de conducción autónoma desde 2014, Tesla tiene una flota de pruebas ampliamente distribuida. Otros fabricantes de automóviles, como Google y GM, solo tienen una pequeña flota de coches con el hardware necesario para la conducción autónoma.

Desde la introducción del paquete de hardware de Tesla hasta noviembre de 2018,* un total de 50 meses, Tesla acumuló alrededor de mil millones de millas conducidas con el hardware más nuevo. * No solo eso, sino que los servidores de Tesla almacenan los datos que estos coches acumulan para que el equipo de piloto automático pueda hacer cambios en su software en función de lo que aprende. En el momento de escribir este artículo, Tesla había recopilado alrededor de 5,5 millones de millas de datos por día para su sistema más nuevo, tardando solo unas cuatro horas en reunir 1 millón de millas. En comparación, Waymo tiene la siguiente mayor cantidad de datos con alrededor de 10 millones de millas conducidas en su vida útil. En dos días, Tesla adquiere más datos de sus coches que Waymo en su vida útil.

Esta tasa de recopilación de datos aumenta con más coches en las calles, y Tesla ha estado acelerando su ritmo de producción. A pesar de que Tesla tiene más millas acumuladas que sus competidores*, cuando probó su capacidad de conducción autónoma con el Departamento de Vehículos Motorizados de California (DMV), la organización del gobierno estatal que regula el registro de vehículos, Tesla tuvo un recuento mucho mayor de desconexenciones en comparación con otros competidores. *

Los desvinculaciones son una métrica que la persona promedio puede usar para comparar sistemas autónomos. * Proporciona un recuento aproximado de la frecuencia con la que el sistema del coche falla tan mal que el conductor de prueba se hace cargo. Es solo un proxy del rendimiento porque esta métrica no tiene en cuenta las variables que pueden afectar al vehículo, como el clima, o cómo y dónde ocurrieron estos problemas. Un aumento de la retirada podría significar que existe un problema importante o que la empresa está probando su software en situaciones más difíciles, como una ciudad.

A finales de 2015, los números de Tesla mostraron que estaba muy por detrás de sus competidores. Si normalizamos el número de millas por desconexión, Tesla tenía un software 1000 veces peor en comparación con Waymo. Pero Tesla sigue perfeccionando su sistema, año tras año. Y Tesla tiene una ventaja sobre otros fabricantes de automóviles: puede actualizar el sistema por aire y mejorarlo sin tener que vender coches nuevos o reparar los existentes.

Figura: Comparación de millas por desconexión. *
Figura: Comparación de millas por desconexión. *

La flota autónoma de Waymo tiene el menor número de desaprendimientos por milla, pero incluso esta métrica aún no se acerca al rendimiento humano. Waymo tiene 1 desconexión por cada 1000 millas. Si consideramos un desconexión humana como un ser cuando un ser humano está conduciendo y hay un accidente, entonces teóricamente, los humanos tienen alrededor de 100 veces menos desvinculaciones que el software de conducción autónoma de Waymo.

Pero Tesla tiene otra ventaja: tiene una gran flota de coches habilitados para probar su última actualización de software de coches autónomos. Esta tecnología permite a Tesla desarrollar software internamente y lanzarlo en modo sombra durante millones de millas antes de lanzar el software al público.* El modo sombra permite a Tesla probar silenciosamente sus algoritmos en los coches de los clientes, lo que proporciona a la empresa un abundante banco de pruebas de datos del mundo real.

Figura: Imagen cortesía de Velodyne LiDAR. *
Figura: Imagen cortesía de Velodyne LiDAR. *

 

LIDAR o detección y rango de luz es un sensor similar a un radar, su nombre proviene de un puerto de luz y radar. * LIDAR mapea el espacio físico rebotando rayos láser de los objetos. El radar no puede ver muchos detalles, y las cámaras no funcionan tan bien en condiciones de poca luz o resplandor. * LIDAR permite que un coche “vea” lo que hay a su alrededor con mucho más detalle que otros sensores. El problema con LIDAR es que no funciona bien en varias condiciones de iluminación diferentes, incluso cuando hay niebla, lluvia o nieva. *

A diferencia de otras empresas, Tesla apuesta a que pueden manejar un coche autónomo que funciona mejor que un humano sin un dispositivo de hardware LIDAR.

Otro problema es que LIDAR es caro, originalmente a partir de alrededor de $75 000, aunque el costo ahora es considerablemente menor,* y el hardware es voluminoso, se asemeja a los cubos KFC. * LIDAR ayuda a los coches autónomos a procesar y construir un modelo 3D del mundo que los rodea, llamado localización y mapeo simultáneos (SLAM). Aún así, Tesla continúa mejorando su software y reduciendo su tasa de desconexión, que es una de las razones por las que Tesla apostó por no usar dicho dispositivo. Para funcionar tan bien como los humanos, los coches necesitan el mismo tipo de hardware. Los humanos conducen solo con sus ojos. Por lo tanto, tiene sentido que los coches autónomos puedan funcionar tan bien como los humanos solo con cámaras.

Un vehículo Tesla que ejecuta el software Autopilot se tocó con un tractor-remolque en junio de 2016 después de que su software no pudiera detectar el remolque contra el cielo brillante, lo que resultó en la muerte de su conductor. Según algunos, LIDAR podría haber evitado ese accidente. Desde entonces, Tesla ha añadido radares a sus coches para estas situaciones. Uno de los proveedores del software base, Mobileye, se separó de Tesla debido a la fatalidad. Pensaron que Tesla era demasiado optimista al presentar su software a las masas y que necesitaba más pruebas para garantizar la seguridad de todos. Desafortunadamente, las muertes con software de conducción autónoma siempre ocurrirán, al igual que con los conductores humanos. Con el tiempo, la tecnología mejorará y las tasas de desconexión disminuirán. Predigo un momento en el que los coches sean mejores que los humanos para conducir, momento en el que los coches serán conductores más seguros que los humanos. Pero las muertes inevitablemente ocurrirán.

Antes de esa fatalidad, Tesla usaba el software Mobileye para detectar coches, personas y otros objetos en la calle. Debido a la división, Tesla tuvo que desarrollar el paquete Autopilot 2 desde cero, lo que significa que construyó un nuevo software para reconocer objetos y actuar sobre ellos. Tesla tardó dos años en estar en el mismo estado que antes de la ruptura. Pero una vez que se puso al día con el antiguo sistema, rápidamente superó sus características iniciales.

Por ejemplo, el nuevo software Tesla Autopilot 9.0, tiene la red visionneuralmás grande jamás entrenada. * Basaron la red neuronal en la famosa arquitectura de red neuronal de visión de Google Inception. La versión de Tesla, sin embargo, es diez veces más grande que la de Inception y tiene cinco veces el número de parámetros (pesos). Espero que Tesla siga empujando el sobre.

WAYMO

Tesla no es la única empresa de conducción autónoma a la vanguardia de la tecnología. De hecho, Waymo de Google fue una de las primeras empresas en empezar a desarrollar software para coches autónomos. Waymo es una continuación de un proyecto iniciado en un laboratorio en Stanford 10 años antes del primer lanzamiento del piloto automático de Tesla. Ganó el Gran Desafío DARPA para coches autónomos, y debido a su notoriedad, Google lo adquirió cinco años después, formando Waymo. Los coches de Waymo funcionan mucho mejor que cualquier otro sistema de conducción autónoma, pero lo que es sorprendente es que tienen muchas menos millas conducidas en el mundo real que Tesla y otros fabricantes de automóviles autónomos. *

El DARPA Grand Challenge comenzó en 2004 con un recorrido de 150 millas a través del desierto para estimular el desarrollo de coches autónomos. Durante el primer año, el ganador, Waymo, completó siete de las millas, pero todos los vehículos se estrellaron, fallaron o se incendiaron. * La tecnología requerida para estos coches de primera generación era sofisticada, cara, voluminosa y no visualmente atractiva. Pero con el tiempo, los coches mejoraron, necesitando menos hardware. Si bien el desafío inicial se limitó a un solo lugar en el desierto, se expandió a los cursos de la ciudad en años posteriores.

Con Waymo como el primer ganador de la competición, se convirtieron en el líder del sector del automóvil autónomo. Tener la tasa de desconexión más baja por milla de cualquier sistema de coche autónomo significa que tienen el mejor software. Algunos argumentan que la razón principal por la que Waymo funciona mejor que la competencia es que prueba su software en un mundo simulado. Waymo, ubicado en una esquina del campus de Alphabet, desarrolló un mundo virtual simulado llamado Carcraft, un juego de palabras que se refieren al popular juego World of Warcraft. * Originalmente, este mundo simulado se desarrolló para reproducir escenas que el coche experimentó en las carreteras públicas, incluidos los momentos en que el coche se desconectó. Eventualmente, Carcraft asumió un papel aún mayor en el desarrollo del software de coches autónomos de Waymo porque simulaba miles de escenarios para sondear la capacidad del coche.

Waymo usó esta realidad virtual para probar su software antes de lanzarlo a los coches de prueba del mundo real. En la simulación, Waymo creó versiones totalmente modeladas de ciudades como Austin, Mountain View y Phoenix, así como otras simulaciones de pistas de prueba. Probó diferentes escenarios en muchos coches simulados, alrededor de 25.000 de ellos en cualquier momento. Colectivamente, los coches conducen alrededor de 8 millones de millas al día en este mundo virtual. Solo en 2016, los coches autónomos virtuales registraron aproximadamente 2.500 millones de millas virtuales, mucho más que los coches de 3 millones de millas que los coches de Waymo conducían en las carreteras públicas. Su mundo simulado ha registrado 1000 veces más millas que sus coches reales.

El poder de estas simulaciones es que entrenan y prueban los modelos con software creado para interacciones interesantes y difíciles en lugar de que el coche simplemente ponga millas. Por ejemplo, Carcraft simula círculos de tráfico que tienen muchos carriles y son difíciles de navegar. Imita cuando otros vehículos cortan el coche simulado o cuando un peatón cruza la calle inesperadamente. Estas situaciones rara vez ocurren en el mundo real, pero cuando lo hacen, pueden ser fatales. Estas son las razones por las que Waymo tiene una ventaja sobre sus competidores. Entrena y prueba su software en situaciones en las que otros competidores no pueden prescindir del mundo simulado, independientemente de cuántas millas logre. Personalmente, creo que las pruebas en el mundo simulado son esenciales para crear un sistema seguro que pueda funcionar mejor que los humanos.

La simulación hace que el ciclo de desarrollo de software sea mucho, mucho más rápido. Para los desarrolladores, el ciclo de iteración es extremadamente importante. En lugar de tomar semanas como en los primeros días de la construcción de software de Waymo, el ciclo cambió a cuestión de minutos después de desarrollar Carcraft, lo que significa que los ingenieros pueden ajustar su código y probarlo rápidamente en lugar de esperar largos períodos de tiempo para probar los resultados.

Carcraft ajusta el software y lo mejora, pero el problema es que una simulación no prueba situaciones en las que hay manchas de petróleo en la carretera, baches del tamaño de un sumidero u otras anomalías extrañas que podrían estar presentes en el mundo real, pero no parte del mundo virtual. Para probar eso, Waymo creó una pista de prueba real que simula los diversos escenarios que estos coches pueden encontrar.

A medida que el software mejora, Waymo lo descarga en sus coches y lo ejecuta y lo prueba en la pista de prueba antes de subirlo a los coches en el mundo real. Para poner esto en perspectiva, Waymo redujo la tasa de desconexión por milla en un 75 % de 2015 a 2016. * A pesar de que Waymo tuvo una ventaja en la creación de un mundo simulado para probar su software, muchos otros fabricantes de automóviles ahora tienen programas para crear sus propias simulaciones y camas de pruebas.

Algunos informan de que la estrategia para Waymo es construir el sistema operativo para los coches autónomos. Google tenía la misma estrategia al construir Android, el sistema operativo para teléfonos inteligentes. Construyeron la pila de software para teléfonos inteligentes y dejaron que otras empresas, como Samsung y Motorola, construyeran el hardware. Para los coches autónomos, Waymo está construyendo la pila de software y quiere que los fabricantes de automóviles construyan el hardware. Según se informa, intentó vender su pila de software a los fabricantes de automóviles, pero no tuvo éxito. Las empresas de automóviles quieren construir sus propios sistemas de conducción autónoma. Por lo tanto, Waymo tomó el asunto en sus propias manos y desarrolló un servicio de taxi Early Rider con unas 62 000 minivans. * En diciembre de 2018, Waymo One lanzó un servicio de 24 horas en el área de Phoenix que abrió su servicio de transporte compartido a unos pocos cientos de personas preseleccionadas, ampliando su servicio de taxi privado. Sin embargo, estas furgonetas tendrán un empleado de Waymo en el asiento del conductor. Esta podría ser la solución para hacer funcionar sus coches autónomos en el mundo real al principio, pero será difícil ver que esa solución se expanda.

COMMA.AI

Uno de los otros actores más importantes en el ecosistema de conducción autónoma es Comma.ai, iniciado por un hacker a mediados de los veinte años, George Hotz, en 2015. * En 2007, a la edad de 17 años, se hizo famoso por ser la primera persona en hackear el iPhone para usarlo en redes distintas de AT&T. También fue la primera persona en hackear la Sony PlayStation 3 en 2010. Antes de construir un coche autónomo, Hotz vivía en Silicon Valley y trabajaba para algunas empresas, como Google, Facebook y una startup de IA llamada Vicarious.

Figura: George Hotz y su primer coche autónomo, un Acura.
Figura: George Hotz y su primer coche autónomo, un Acura.

Hotz comenzó a hackear coches autónomos actualizando un Acura ILX blanco de 2016 con un LIDAR en el techo y una cámara montada cerca del espejo retrovisor. Añadió un gran monitor donde se encuentra el salpicadero y una caja de madera con un joystick, donde normalmente se encuentra el cambio de marchas, que permite al software de conducción autónoma hacerse cargo del coche. Le llevó alrededor de un mes adaptar su Acura y desarrollar el software necesario para que el coche se condujera por sí mismo. Hotz pasó la mayor parte de su tiempo añadiendo sensores, el ordenador y la electrónica. Una vez que los sistemas estaban en funcionamiento, condujo el coche durante dos horas y media para que el ordenador lo observara conduciendo. Regresó a casa y descargó los datos para que el algoritmo pudiera analizar sus patrones de conducción.

El software aprendió que Hotz tendía a permanecer en el carril central y mantenía una distancia segura del coche que estaba frente a él. Dos semanas más tarde, fue a dar un segundo paseo para proporcionar más horas de entrenamiento y también para probar el software. El coche se condujo por sí mismo durante largos tramos mientras permanecía dentro de los carriles. Las líneas en la pantalla del salpicadero, una mostraba la ruta real del coche y la otra donde el ordenador quería ir, se superpuestaban casi perfectamente. A veces, el Acura parecía encerrarse en el coche frente a él o tomar señales de un coche cercano. Después de automatizar la dirección del coche, así como los pedales de gasolina y freno, Hotz tomó el coche para un tercer viaje, y se quedó en el centro del carril perfectamente durante millas y millas, y cuando un coche frente a él se ralentizó, también lo hizo el Acura.

Figura: El coche autónomo de George Hotz.
Figura: El coche autónomo de George Hotz.

La tecnología que construyó como empresario representa un cambio fundamental de los costosos sistemas diseñados por Google a sistemas mucho más baratos que dependen más del software que del hardware. Su trabajo impresionó a muchas empresas de tecnología, incluida Tesla. Elon Musk, que se unió a Tesla después de una ronda de financiación de la Serie A y es su actual CEO, y Holz se reunieron en la fábrica de Tesla en Fremont, California, y discutieron sobre inteligencia artificial. Los dos llegaron a un acuerdo en el que Hotz crearía software mejor que el de Mobileye, y Musk lo compensaría con un contrato por un valor de alrededor de 1 millón de dólares al año. Desafortunadamente, Holz se alejó después de que Musk cambiara continuamente los términos del acuerdo. “Francamente, creo que deberías trabajar en Tesla”, escribió Musk a Hotz en un correo electrónico. “Estoy feliz de elaborar un bono multimillonario con un horizonte de tiempo más largo que se amortiza tan pronto como suspendamos Mobileye”. “Aprecio la oferta”, respondió Hotz, “pero como he dicho, no estoy buscando trabajo. Te avisaré cuando aplaste a Mobileye”. Musk simplemente respondió: “OK”. *

Desde entonces, Holz ha estado trabajando en lo que él llama el Android de los coches autónomos, comparando Tesla con el iPhone de los vehículos autónomos. Lanzó un dispositivo similar a un teléfono inteligente, que se vende por 699 $ con software instalado. La cámara del salpicadero simplemente se conecta a los coches más populares fabricados en los Estados Unidos después de 2012 y proporciona la capacidad equivalente al piloto automático de Tesla, lo que significa que los coches se conducen por sí mismos en las autopistas de Mountain View a San Francisco sin que nadie toque la rueda. *

Figura: cámara de salpicadero EON con chffrplus. *
Figura: cámara de salpicadero EON con chffrplus. *

Pero poco después de lanzar el producto, la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) envió una investigación y amenazó con sanciones si Hotz no se sometiera a consideraciones de supervisión. En respuesta, Hotz retiró el producto de la venta y siguió otro camino. Decidió comercializar otro producto que era la versión de hardware del producto.

Luego, en 2016, abrió el software para que cualquiera pudiera instalarlo en el hardware apropiado. Y con eso, Comma.ai se abstuvo de la responsabilidad de ejecutar su software en automóviles. Pero los consumidores todavía tenían acceso a la tecnología, lo que permitía que sus coches conducían ellos mismos. Comma.ai continúa desarrollando su software, y los conductores pueden comprar el hardware e instalar el software en sus coches. Algunas personas estiman que alrededor de 1.000 de estos coches modificados funcionan en las calles ahora.

NUEVORecientemente, Comma.ai ha anunciado que se han vuelto rentables. *

EL CEREBRO DEL COCHE AUTOCONDUCCIÓN

Figura: Las partes del cerebro del coche autónomo.
Figura: Las partes del cerebro del coche autónomo.

Tres partes principales forman el cerebro de un coche autónomo: localización, percepción y planificación. Pero incluso antes de abordar estos tres elementos, el software debe integrar los datos de diferentes sensores, como cámaras, radares, LIDAR y GPS. Las diferentes técnicas aseguran que si los datos de un sensor determinado son ruidosos, lo que significa que contiene datos no deseados o poco claros, otros sensores ayudan con su información. Y hay métodos para fusionar datos de estos diferentes sensores.

Una vez que se han adquirido los datos, el siguiente paso para el software es saber dónde está. Este proceso incluye encontrar la ubicación física del vehículo y en qué dirección debe dirigirse el coche, por ejemplo, qué salidas debe tomar para llevar al pasajero a su destino. Una solución potencial es usar LIDAR con resta de fondo para hacer coincidir los datos del sensor con un mapa de alta definición.

Figura: Cola larga.
Figura: Cola larga.

La siguiente parte de la pila de software es más difícil. La percepción básicamente implica responder a la pregunta de lo que hay alrededor del vehículo. Un coche necesita encontrar señales de tráfico y determinar de qué color son. Necesita ver dónde están las marcas de los carriles y dónde están los coches, los camiones y los autobuses. La percepción incluye la detección de carriles, la detección de semáforos, la detección y seguimiento de objetos y la detección de espacio libre.

La parte más difícil de este problema está en la cola larga, que describe los diversos escenarios que aparecen solo ocasionalmente. Al conducir, eso significa situaciones como semáforos con diferentes colores que el rojo, amarillo y verde estándar o rotondas con múltiples carriles. Estos escenarios ocurren con poca frecuencia, pero debido a que hay tantas posibilidades diferentes, es esencial tener un conjunto de datos lo suficientemente grande como para cubrirlos todos.

El último paso, la planificación del camino, es, con mucho, el más difícil. Dada la ubicación del coche, sus alrededores y el destino de sus pasajeros, ¿cómo llega allí? El software debe calcular los siguientes pasos para llegar al lugar deseado, incluida la planificación de rutas, la predicción, la planificación del comportamiento y la planificación de trayectorias. La solución idealmente incluye imitar el comportamiento humano basado en los datos reales de las personas que conducen.

Estos tres pasos se combinan para formar las acciones que los coches deben tomar en función de la información proporcionada. El sistema decide si el vehículo necesita girar a la izquierda, frenar o acelerar. Las instrucciones proporcionadas a un sistema de control aseguran que el coche no haga nada inaceptable. Este sistema se une para hacer que los coches se conduzcan por las calles y forme la “magia” detrás de los coches conducidos por Tesla, Waymo, Comma.ai y muchos otros.

ÉTICA Y COCHES AUTÓNOMOS

Como se dijo anteriormente, las muertes por tráfico son inevitables y, por lo tanto, estas empresas deben abordar las preocupaciones éticas asociadas con la tecnología. Los algoritmos de software determinan qué acción realizan los vehículos autónomos. Cuando una colisión es inevitable, ¿en qué orden deben ocurrir los eventos?

Este es un experimento mental descrito como el problema del carro. Por ejemplo, es una decisión sencilla que el coche se encuentre con una boca de incendios en lugar de golpear a un peatón. Y aunque algunos pueden estar en desacuerdo, es más humano golpear a un perro en un paso de peatones que a una madre empujando a un bebé en un cochecito. Pero creo que ahí es donde terminan las decisiones fáciles. ¿Qué tal golpear a un adulto mayor en lugar de a dos adultos jóvenes? O, en un caso muy extremo, ¿es mejor elegir llevar el coche por un acantilado, matando al conductor y a todos los pasajeros, en lugar de meterse en un grupo de estudiantes de jardín de infantes? *

La sociedad a veces se centra demasiado en la tecnología en lugar de mirar el panorama completo. En mi opinión, debemos fomentar el uso ético de la ciencia y, como tal, necesitamos invertir los recursos adecuados para profundizar en este tema. No es de ninguna manera fácil de resolver, pero asignar los medios adecuados para discutir este tema solo mejora nuestra sociedad.

El futuro de los coches autónomos

  • ¿Cuál es el futuro de los coches autónomos?
  • ¿Qué es el transporte como servicio?
  • ¿Cuáles son las consecuencias de los coches autónomos para la sociedad?

Pero las preocupaciones sobre los ascensores sin operador eran bastante similares a las preocupaciones que escuchamos hoy sobre los coches sin conductor.

Garry Kasparov *

Se habla mucho de los coches autónomos y de cómo algún día reemplazarán a los conductores de camiones, y algunos dicen que la transición ocurrirá de repente. De hecho, el cambio ocurrirá por pasos, y comenzará en algunos lugares y luego se expandirá rápidamente. Por ejemplo, Tesla está lanzando actualizaciones de software que hacen que su coche sea cada vez más autónomo. Primero comenzó a lanzar software que permite que sus coches conduzcan por autopistas, y con una actualización posterior del software, sus coches pudieron fusionarse en el tráfico y cambiar de carril. Waymo está probando sus coches autónomos en el centro de Phoenix. Pero podría no ser sorprendente que Waymo comience a desplegar su servicio en otras áreas.

La industria habla de cinco niveles de autonomía para comparar los diferentes sistemas de automóviles y sus capacidades. El nivel 0 es cuando el conductor tiene el control completo, y el nivel 5 es cuando el coche conduce solo y no necesita asistencia al conductor. Los otros niveles oscilan entre estos dos. No voy a profundizar en los detalles de cada nivel porque los límites son borrosos en el mejor de los casos, y prefiero usar otras formas de compararlos, como los desconsenganes por milla. Sin embargo, se miden, a medida que los sistemas mejoran, los coches autónomos pueden evitar que los humanos cometan errores y ayudar a evitar accidentes causados por otros conductores.

Los coches autónomos reducirán y casi eliminarán el número de accidentes automovilísticos, que matan a alrededor de 1 millón de personas en todo el mundo cada año. El número de muertes anuales por mil millones de millas ya ha disminuido debido a las características de seguridad y las mejoras en los diseños de los vehículos, como la introducción de cinturones de seguridad y bolsas de aire. Los coches ahora tienen más probabilidades de sufrir el daño y absorber el impacto de un accidente, reduciendo las lesiones a los pasajeros.

Figura: millas de vehículos estadounidenses transitadas y tasa de mortalidad proporcional. Número de millas conducidas por los coches frente al número de muertes anuales por mil millones de millas conducidas.
Figura: millas de vehículos estadounidenses transitadas y tasa de mortalidad proporcional. Número de millas conducidas por los coches frente al número de muertes anuales por mil millones de millas conducidas.

La conducción autónoma reducirá el número total de accidentes y muertes. Solo en los Estados Unidos, se producen alrededor de 13 millones de colisiones al año, de las cuales 1,7 millones causan lesiones y 35.000 personas mueren. El error del conductor causa aproximadamente el 90 % de los accidentes, un tercio de los cuales implican alcohol. * La autonomía puede ayudar a prevenir estos desastres.

Las muertes no son el único problema causado por los accidentes. También tienen un gran efecto económico. El gobierno de los Estados Unidos estima un costo de alrededor de 240 millones de dólares al año para la economía, incluidos los gastos médicos, los servicios legales y los daños a la propiedad. En comparación, las ventas de automóviles en EE. UU. son de alrededor de 600 mil millones de dólares al año. Según los datos de la Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA), la tasa de choques para los coches Tesla se redujo en un 40 % después de la introducción de la función Autopilot Autosteer. * Una aseguradora ofreció un 5% de descuento para los conductores de Tesla con la función de asistencia activada. *

La autonomía tendrá un efecto en el tráfico en general. Los coches no necesariamente tendrán que detenerse en las señales de tráfico porque pueden coordinarse entre sí para determinar la mejor ruta o para conducir de forma segura a 80 millas por hora a 2 pies de distancia el uno del otro. Por lo tanto, el flujo de tráfico mejorará, permitiendo que haya más coches en las calles. Con menos accidentes, podría haber menos congestión de tráfico. Las estimaciones dicen que hasta un tercio de los accidentes automovilísticos ocurren debido a la congestión, y estos crean aún más congestión. El impacto de la autonomía en la congestión sigue sin estar claro, ya que, que yo sepa, aún no existen estudios. Los coches autónomos sin duda aumentarán la capacidad, pero a medida que aumenta el volumen, también lo hace la demanda. Si se vuelve más barato o más fácil para la gente usar coches autónomos, entonces el número de personas que los usan aumentará.

El aparcamiento también se transformará con autonomía porque si el coche no tiene que esperarte a poca distancia, entonces puede hacer otra cosa cuando la gente no lo necesite. * El modelo de estacionamiento actual es una fuente de congestión, con algunos estudios que sugieren que un porcentaje de dos dígitos del tráfico en áreas urbanas densas proviene de personas que conducen en busca de plazas de aparcamiento. Un coche autónomo puede esperar en otro lugar, y un coche bajo demanda puede simplemente dejarte e ir a recoger a otros pasajeros. Pero este nuevo modelo también podría crear congestión porque en ambos casos, los coches tienen que ir a recoger a la gente en lugar de estar estacionados y esperar a que la gente venga a él. Con suficiente densidad, el coche bajo demanda podría ser el que ya está dejando a alguien más cerca de ti, similar al modelo de Uber.

El aparcamiento no solo es importante para el tráfico, sino también para el uso de la tierra. Algunos aparcamientos están en la calle, por lo que eliminarlo añade capacidad para otros coches que conducen o para las personas que caminan. Por ejemplo, el estacionamiento en el condado de Los Ángeles ocupa aproximadamente el 14 % de la tierra. Añadir estacionamientos y garajes es caro, lo que impulsa los precios de la construcción y los gastos de vivienda. * Un estudio en Oakland, California, mostró que los requisitos de estacionamiento exigidos por el gobierno aumentaron los costos de construcción por apartamento en un 18 %.

Eliminar el costo de los conductores de los servicios bajo demanda, como Uber y Lyft, reduce el gasto en alrededor del 75 %. Tenga en cuenta la reducción del precio del seguro debido a menos accidentes automovilísticos, y el costo baja aún más. El transporte como servicio es el nuevo modelo de negocio. *

TRANSPORTE COMO SERVICIO

El transporte como servicio es un tipo de servicio que permite a los consumidores moverse sin tener que comprar o poseer vehículos.

El transporte como servicio (TaaS), también conocido como movilidad como servicio (MaaS) o movilidad bajo demanda (MoD),* interrumpirá no solo la industria del transporte, sino también la industria petrolera con la adición de vehículos eléctricos (EV). TaaS va de la mano con los vehículos eléctricos: los coches eléctricos son mucho menos costosos de mantener porque, por un lado, sus motores de inducción tienen menos piezas móviles que los motores de combustión interna (ICE) de los coches de gas. * Para los vehículos autónomos en el sector TaaS, los bajos costos de mantenimiento son esenciales, como las empresas de alquiler de coches lo saben bastante bien.

La familia estadounidense promedio gasta 9.000 dólares en transporte por carretera cada año. Se estima que ahorrarán más de 5.600 dólares al año en costos de transporte con TaaS, dejándolos usar ese dinero en otras áreas como el entretenimiento. Los servicios realmente baratos y bajo demanda tendrán aún más consecuencias. A medida que el TaaS con coches autónomos se vuelve más barato, debemos repensar el transporte público. Si todo el mundo utiliza servicios bajo demanda, entonces nadie necesitará transporte público.

La transición de todas las personas que actualmente viajan a través del sistema de metro subterráneo o trenes elevados a coches en las calles de superficie puede aumentar la congestión en las carreteras. En áreas de alta densidad, como la ciudad de Nueva York, la gente vive en edificios apilados en diferentes pisos. Si todo el mundo necesita moverse al mismo tiempo, como durante la hora punta, y pasar por un solo “piso”, es decir, el sistema de carreteras sobre el suelo, entonces la congestión ocurrirá invariablemente. Por lo tanto, los vehículos autónomos deben poder moverse de una manera que no dependa solo de las calles de la superficie. Los vehículos autónomos deben viajar a través de muchos niveles.

Figura: El primer prototipo de Kitty Hawk de su coche volador autónomo.
Figura: El primer prototipo de Kitty Hawk de su coche volador autónomo.

Una posibilidad son los drones autónomos, algo así como un futuro jetsoniano. Kitty Hawk Corporation, una startup desarrollada por Sebastian Thrun, ya tiene algunos prototipos de estos coches voladores. *

•••

(CONTROVERSIA)
Algunos argumentan que esta solución podría no funcionar dentro de áreas muy densas porque estos drones producen demasiado ruido. Y si fallan y se estrellan, pueden dañar la propiedad o los humanos.

•••

Sin embargo, el prototipo más reciente no es tan ruidoso como algunos afirman. Desde una distancia de 50 pies, estos vehículos suenan como una cortadora de césped, y desde 250 pies, como una conversación ruidosa. Y su diseño es tal que si el motor o una de las cuchillas fallan, no caerán al suelo.

Otra posibilidad para añadir más niveles para vehículos bajo demanda es pasar bajo tierra, creando túneles. Pero cavar túneles es una gran inversión financiera y de construcción. La empresa de perforación de Elon Musk se centra en reducir el costo de los túneles en un factor de diez al reducir el diámetro del túnel, así como aumentar la velocidad de su máquina de perforación de túneles (TBM). * Su objetivo es hacerlos tan rápidos como un caracol. Musk cree que ir bajo tierra es más seguro que volar vehículos y proporciona más capacidad al añadir más túneles en diferentes niveles. The Boring Company ya tiene un bucle en el Centro de Convenciones de Las Vegas.*

TaaS tendrá un impacto directo en la industria de la conducción, así como en el empleo. Solo en los Estados Unidos, los coches autónomos afectarán a alrededor de 200.000 taxistas y conductores privados y a 3,5 millones de conductores de camiones. * El desplazamiento de los conductores de camiones, en particular, tendrá un impacto significativo en la economía, ya que la conducción de camiones es una de las profesiones más grandes de los Estados Unidos.

Dado que durante las horas punta de conducción, solo el 10 % de los coches están en movimiento, podemos esperar que TaaS resulte en menos coches y eso podría afectar a los números de producción. Cada año se venden más de 10 millones de coches nuevos en el mercado estadounidense. Con menos necesarios para la misma capacidad, el número total introducido en el mercado podría bajar. Además, el costo del transporte disminuirá en gran medida porque se necesitan menos recursos para hacer los coches. El uso de TaaS será mucho más barato que tener un coche debido al uso reducido, así como al ahorro de combustible y mantenimiento al usar vehículos eléctricos para la conducción autónoma.

Una vez en su lugar, el cambio a TaaS es fácil para los consumidores y no requiere inversión ni contrato, por lo que creo que la tasa de adopción será alta. * Y a medida que los niveles de comodidad de los consumidores aumenten debido a una mayor seguridad y menos molestias, el uso se extenderá. Primero, el cambio se producirá en áreas de alta densidad con altos valores inmobiliarios, como San Francisco y Nueva York, y luego se extenderá a áreas rurales y menos densas.

Figura: Diferencia de coste de los coches eléctricos autónomos frente a los coches ICE.
Figura: Diferencia de coste de los coches eléctricos autónomos frente a los coches ICE.

A medida que se produzca este cambio, menos personas comprarán coches nuevos, lo que resultará en una disminución en la producción de automóviles.* Ya vemos esta tendencia con los adultos jóvenes que utilizan servicios de coche compartido en las ciudades y no compran vehículos. Según un estudio,* los jóvenes condujeron un 23 % menos entre 2001 y 2009. * Los tipos de coches que la gente conduce también cambiarán con el tiempo. Si te mudas a la ciudad, es posible que no necesites una camioneta F-150, sino un coche mucho más pequeño. O, si viaja de un área muy densa a otra, podría tener sentido tener vehículos autónomos que transporten más de diez pasajeros a la vez.

Figura: Porcentaje de conductores para diferentes grupos de edad.
Figura: Porcentaje de conductores para diferentes grupos de edad.

La disponibilidad de transporte bajo demanda de puerta a puerta a través de vehículos TaaS mejorará la movilidad de aquellos que no pueden conducir o que no pueden permitirse el lujo de tener un coche. Debido a que el costo del transporte bajará, más personas viajarán en coche. Los experimentos con TaaS ya existen en diferentes áreas de los EE. UU. Por ejemplo, Voyage, una startup de Silicon Valley adquirida por Cruise en 2021, desplegó coches con conductores “remotos” que ejecutan su software en The Villages en Florida, una comunidad de jubilados masiva con 125.000 residentes. * Voyage ya está experimentando con lo que se convertirá en la corriente principal en unos años. Los residentes de la comunidad de jubilados convocan un coche con una aplicación de teléfono, y el coche sin conductor los recoge y los deja en cualquier lugar dentro de esta comunidad. Los vehículos son monitoreados por trabajadores que comprueban cualquier problema desde un centro de control. El transporte cambiará por completo en la próxima década, al también lo harán las ciudades. Con suerte, los gobiernos facilitarán la transición.