

No puedes estar de acuerdo. Puede pensar que aún faltan mucho. Pero es difícil ignorar la dirección en la que progresamos: una en el Robot humanoide Serás parte de nuestra vida diaria. Si la tecnología es madura y los costos ya no tienen un obstáculo, la decisión ya no será técnica. Será ético. ¿Hasta dónde pueden llegar los robots? ¿Y quién establecerá los límites?
Imagina los escenarios. Los robots se convirtieron en soldados que fueron usados solos o además de las tropas humanas en conflictos. El robot como compañero emotivo, no solo para las personas mayores, sino también para todos los que viven solos. Robots que limpian, cocinan, organizan. Robots en fábricas, incansables, constantes y reemplazar las tareas que hemos realizado antes.
Lo sorprendente es que todo esto ya comienza. Hoy el robot Figura 02Lo que ha estado funcionando en una fábrica de BMW desde el año pasado puede funcionar de forma autónoma, clasificar objetos y gracias qué hacer con la precisión Sus desarrolladores llaman «Toque» y «memoria a corto plazo».
En 2018, «Detroit: Convertirse» parecía ser ciencia ficción. No su creador incluso entonces, David CageDecidí que veríamos algo así en el mundo real en 2025. Pero sucedió. Y lo más fascinante es que la figura no va sola. Hay algo más detrás de sus gestos. Una red neuronal que, como pronto veremos, es el verdadero protagonista.
Helix, el ‘cerebro’ detrás de la figura 02
Esta red neuronal tiene su propio nombre: Helix. Es el cerebro detrás del robot. La persona responsable de sus movimientos parece cada vez más natural. Y lo que ha logrado En solo tres meses Es difícil ignorar en un entorno logístico. Helix no solo ha aprendido a manipular objetos con habilidad. Ha aprendido Comprender el contexto. Adaptar. Para fingir que recordaba lo que hizo antes. Y lo más sorprendente: mejor y mejor, más rápido y menos errores.
Primero, Helix fue un catálogo más simple. Pero gradualmente aprendió a trabajar con una mayor selección de paquetes: De cajas rígidas a Sobres suaves o bolsas de plástico deformables que los mantienen y colocanlos mucho más difíciles. Algunas arrugas, otras se doblan ligeramente. Este es un verdadero desafío para un robot.
Y sin embargo, Helix se adapta. Ajuste la forma en que cada objeto agarra, cambia su estrategia cuando el paquete es más plano o más suave, y sabe cuándo es conveniente tomar o usar una curva pequeña Un tipo de terminales más preciso. Hace todo en el vuelo sin que nadie le diga qué tipo de paquete tiene frente a él.
El robot sabe cuándo es cómodo tomar una curva pequeña o usar una forma de soporte más precisa.
Este comportamiento no fue programado por línea. Lo aprendí a través de la observación. En general, fue entrenado con 60 horas de manifestaciones humanas. Y con cada nuevo ejemplo era mejor entender qué hacer. Gracias a esto es el tiempo promedio requerido para procesar un paquete.
Pero Helix no solo es rápido. También es necesario. Las etiquetas previamente orientadas que estaban alineadas previamente ahora se colocan correctamente el 94.4 % del tiempo. ¿Como? Porque el robot aprendió, entre otras cosas, Pequeños sobres arrugados Antes de intentar escanear. Una ligera presión sobre el plástico es suficiente para que el código de barras sea visible. Es un gesto mínimo, pero muy revelador.
Este aprendizaje se basa en algo fundamental: la memoria. Helix tiene un sistema de visión que no solo analiza lo que ve en ese momento, sino que también recuerda lo que vio hace unos segundos. Es como si tuviera uno Memoria visual a corto plazo. Gracias a ella, puedes tomar decisiones más inteligentes. Por ejemplo, si se determina que un paquete ya se ha girado en un ángulo determinado, no vuelve a girar. Si no encontró la etiqueta al principio, recuerde dónde podría estar y probar en esta dirección.
Otro cambio importante fue integrar la historia de sus propios movimientos. Antes de eso, cada acción era un fragmento aislado: ver, acción, nuevamente. Bueno, hélice Recuerda en que posición estaban tus brazosSu parte superior o cabeza hace un momento que le permite moverse con más fluidez. Si algo deja el plan, el paquete o el mango no pueden ser perfectos, puede corregirlo en tiempo real sin comenzar desde el frente.
Y lo último: La sensación del tacto. Por supuesto, no hay toque humano, sino una forma de reconocer cuánta presión sobre un objeto ejerce. Este desacoplamiento de la fuerza permite que la ruptura de la hélice sienta resistencia o se adapte si el objeto pesa menos de lo esperado. Gracias a esto, puede manipular con más cuidado y adaptarse a las diferencias de peso o rigidez.
Y esa no es una teoría. La Figura 02 ya se ha puesto a prueba en condiciones reales. Para una sesión de una horaPresente El robot funcionó sin interrupciones En un entorno logístico que clasifica a los parcelas de forma autónoma y usa todas sus nuevas capacidades: su sentido del tacto, su memoria visual a corto plazo, su capacidad para corregir los errores en marzo. Una demostración continua de trabajo líquido, preciso, sin intervención directa.
Las imágenes de esta sesión, que hemos incluido en el video que acompaña a este artículo, muestran más que un robot. Muestran una red neuronal que enfrenta el caos del mundo físico y sigue siendo aireado. Muestran que la Figura 02 toma decisiones, adaptados, actúa con autonomía que hasta hace poco parecía ciencia ficción.
Tesla tiene Optimus, Boston Dynamics para Atlas, Agility Robotics. Todos compiten por la carrera de la carrera de la Robot humanoide. Al mismo tiempo, la Figura 02 conduce a través de un sendero sin eventos sin música de fondo, pero con resultados. Con el tiempo, veremos cómo se desarrolla todo esto.
Fotos | Ilustración ai
En | Google no quiere
En | La supercomputadora NVIDIA cuesta millones de dólares. Y para trabajar, usamos un interruptor con tres kilómetros de cables