La Federación Internacional de Robótica (IFR) define a un robot industrial como un “manipulador multiuso reprogramable, controlado automáticamente, programable en 3 o más ejes, fijo o móvil, para usar en aplicaciones de automatización industrial”, es decir una máquina que realiza tareas relativas a la producción sin la necesidad de control humano, cuyas funciones o movimientos se pueden cambiar sin una alteración física, y capaz de ser adaptados a diferentes aplicaciones. Sus usos más comunes incluyen el montaje, manipulación, corte y soldadura en la industria, la cosecha en agricultura, inspección de equipos y estructuras en centrales eléctricas. Su poder es sencillo: aumentar la precisión y productividad, disminuyendo los costos. Telares textiles o grúas no son robots industriales, según esta definición, ya que tienen un propósito único, no se pueden reprogramar para realizar otras tareas y/o requieren un operador humano. Aunque esta definición excluye otros tipos de capital que también puede reemplazar la mano de obra (el software y otras máquinas), permite una medida de comparación de una clase de máquina capaz de reemplazar el trabajo humano.

Entre 1993 y 2007 el stock de robots en Estados Unidos y Europa occidental se multiplicó por cuatro, y desde 2010, la venta mundial, producto de la continua innovación tecnológica, ha crecido a un 12% anual. Mientras que en 2005 se vendían en promedio 115.000 unidades, entre 2011 y 2016 se vendieron en promedio 212.000 unidades, un 87% más. El IFR estimó para 2015-16 entre 1,6 y 1,8 millones de robots industriales en operación, un número que podría aumentar a 3 millones para 2020. La industria automotriz emplea el 39% de robots industriales existentes, seguida de la industria electrónica (19%), productos de metal (9%) y la industria de plásticos y productos químicos (9%), mientras que el 74% de las ventas se concentran en 5 países: China, Corea, Japón, EEUU y Alemania.

Corea tiene la mayor densidad industrial: 631 robots cada 10.000 trabajadores, seguida por Singapur con 468 y Alemania con 309. Japón, el líder mundial hasta 2009, ha declinado al cuarto lugar con 303, y EEUU ha aumentado de 114 en 2010 a 189 en 2016, mientras que China, el mayor comprador mundial, tiene una densidad creciente, la más dinámica del mundo, de 25 en 2013 a 68 en 2016, pero aún lejos de los líderes mundiales.

En el campo central de la robótica, la industria automotriz, Corea tiene la impresionante cantidad de 2.145 robots cada 10.000 trabajadores, más del doble de lo que tenía en 2009. EEUU ocupa el segundo lugar con 1.261 robots cada 10.000 trabajadores, seguido por Japón con 1.240, Francia con 1.150, Alemania con 1.131y España 1.051. China está aún en un nivel moderado: 505.

La Federación explica el desarrollo creciente estimando entre 2017 y 2020 una venta global de 1,7 millones de nuevas unidades, por el desarrollo de la inteligencia artificial, la adquisición de nuevas habilidades a través de procesos de aprendizaje, robots más inteligentes con un “cerebro” en la nube que se beneficiarán del big data y la necesidad de una automatización flexible por el incremento de la variedad de productos.

El periodista John Lanchester señala que “las computadoras se han vuelto dramáticamente más poderosas y se vuelven tan baratas que son efectivamente omnipresentes. El software que ejecutan ha mejorado dramáticamente también”. Y da un notable ejemplo: “En 1996, en respuesta a la moratoria ruso-estadounidense de 1992 sobre pruebas nucleares, el gobierno de EEUU comenzó un programa llamado Iniciativa de Computación Estratégica Acelerada. La suspensión de las pruebas había creado la necesidad de poder ejecutar complejas simulaciones por computadora sin violar los términos de la moratoria. Su respuesta fue encargar una computadora llamada ASCI Red, diseñada para ser la primera supercomputadora. Una vez que Red estaba funcionando a toda velocidad, en 1997, realmente era un espécimen. Su poder era tal que podía procesar 1,8 teraflops. Eso es 18 seguido de 11 ceros.

“Ayer jugaba en Red. No lo era en realidad, pero sí tenía una máquina que podía procesar 1,8 teraflops. Este equivalente se llama PS3: fue lanzado por Sony en 2005 y salió a la venta en 2006. Red era sólo un poco más pequeña que una cancha de tenis, usaba tanta electricidad como ochocientas casas y costaba 55 millones de dólares. La PS3 cabe debajo de un televisor, funciona con una toma de corriente normal y se puede comprar por menos de 200 libras. En una década, una computadora capaz de procesar 1,8 teraflops pasó de ser algo que sólo podía ser creado por el gobierno más rico del mundo para fines que están al alcance de las posibilidades computacionales a algo que un adolescente razonablemente podría esperar encontrar bajo el árbol de Navidad”.

En paralelo al desarrollo de las computadoras, se fue desarrollando la programación. Algunos puntos destacables fueron en 1997 la victoria de la computadora Deep Blue sobre el campeón mundial de ajedrez Kasparov: hoy en día cualquier celular puede tener una aplicación capaz de vencer al mejor jugador del mundo, y en 2011 se dio la victoria en un concurso televisivo de conocimiento general de Watson, un proyecto de IBM en construir una computadora capaz de entender el lenguaje humano y dar las respuestas adecuadas. Si bien Watson triunfó fácilmente, dio respuestas erróneas, ubicando a Toronto en Estados Unidos y fallando en palabras de doble significado.

En 2016 AlphaGo, un proyecto de Google, venció a uno de los mejores jugadores de Go, un juego de tal complejidad que permite que las fichas se ubiquen en más combinaciones que átomos hay en el universo. Aquí no vale la “fuerza bruta” computacional que derrotó a Kasparov: es imposible calcular todas las combinaciones posibles para elegir la mejor. AlphaGo debía, a través de funciones matemáticas, lograr algo así como un símil de la intuición humana. AlphaGo jugó contra sí misma para instruirse, ejercitándose con prueba y error, aprendiendo de 160.000 partidas reales y 30 millones de movimientos involucrados.

Los logros de Watson y AlphaGo son una muestra de cuánto progreso se ha logrado en el aprendizaje automático, el proceso mediante el cual los algoritmos informáticos se mejoran a sí mismos en tareas que incluyen análisis y predicciones.

Otro ejemplo es Google Translate. A pesar de ser aún limitado, ha mejorado comparando cantidades inmensas de textos en paralelo, de modo que su aprendizaje es un proceso para encontrar qué texto es estadísticamente más probable que coincida con el texto en otro idioma. Desde su casi penoso inicio en 2006, con traducciones en general incomprensibles, ahora es una aplicación de un celular que escribe y habla, en forma pobre, pero que permite traducir cualquier idioma imaginable a otro, y todo esto cabe en un bolsillo.

Podemos entender entonces a la inteligencia artificial (IA) como máquinas que no sólo llevan a cabo instrucciones programadas, sino que aprenden más programas nuevos e instrucciones por experiencia y por nuevas situaciones. IA significa robots que aprenden y aumentan su inteligencia. Esto podría suceder hasta el punto en que los robots puedan fabricar más robots con inteligencia creciente. De hecho, algunos sostienen que la IA pronto superará la inteligencia de los seres humanos. Esto se ha dado en llamar “singularidad”: el momento en que los seres humanos ya no sean los seres más inteligentes del planeta.

El crecimiento exponencial de la tecnología informática sugerido por la Ley de Moore es comúnmente citado como una razón para esperar dicha singularidad en un futuro relativamente próximo; en realidad, la “ley” es un pronóstico de 1965, corroborado en la práctica hasta hace poco, del cofundador de Intel, que cada dos años se duplicaría el número de transistores en un microprocesador. Es verdad que el propio Moore expresó en 2007 que su ley dejaría de cumplirse en 10 o 15 años, aceptando la observación de Stephen Hawking de que los límites dependían de los límites de la microelectrónica: la velocidad de la luz y la naturaleza atómica de la materia. Esta exponencial, duradera y continua mejora explica el salto de Red al PS3: en 26 años el número de transistores en un chip se ha incrementado 3.200 veces.

Para el economista marxista Michael Roberts, “la llamada ‘Internet de las cosas’ ofrece la posibilidad de conectar máquinas y equipos entre sí y a redes comunes, lo que permite que las instalaciones de fabricación sean completamente monitoreadas y operadas de forma remota. En el cuidado de la salud y las ciencias de la vida, la toma de decisiones basada en datos, que permite la recopilación y el análisis de grandes conjuntos de datos, ya está cambiando la investigación y desarrollo, la atención clínica, la previsión y la comercialización. El uso de big data en el cuidado de la salud ha llevado a tratamientos y medicamentos altamente personalizados. El sector de la infraestructura, que no tuvo ganancias en la productividad laboral en los últimos 20 años, podría mejorarse mucho. Por ejemplo, con la creación de Sistemas Inteligentes de Transporte, que podrían aumentar enormemente la utilización de activos; la introducción de redes inteligentes, que podrían ayudar a ahorrar en costos de infraestructura de energía y reducir la probabilidad de interrupciones costosas, y una gestión eficiente de la demanda, que podría reducir drásticamente el uso de energía per cápita”.

Por otro lado, es comúnmente aceptado que las computadoras son muy buenas en cosas que nos resultan difíciles, pero son muy malas en otras que nos resultan fáciles: son capaces de vencer al mejor jugador de ajedrez, y ahora de Go, pero carecen de las habilidades motrices de un niño: están lejos de poder jugar un partido de cualquier deporte con el más negado de los humanos. Conocida como la paradoja de Moravec, fue postulada ya en los 80: “Es fácil comparativamente conseguir que las computadoras muestren capacidades similares a las de un adulto en test de inteligencia, y difícil o imposible que posean las habilidades perceptivas y motrices de un bebé de un año”. Una demostración del principio se produjo en 2006, cuando los científicos de Honda presentaron su robot sanitario, el Asimo, que avanzaba hacia una escalera y comenzaba a subir, mirando al público, hasta dar dos pasos y caer.

Kiva, el actual robot de los depósitos de Amazon, es muchísimo menos torpe: puede trasladar estanterías llenas, para almacenamiento o despacho, a través de trayectorias ya programadas, pero el manejo de la mercadería, su reconocimiento, embalaje y etiquetado es realizado por humanos; la motricidad fina le es ajena. La complementariedad entre los robots y los trabajadores sirve para aumentar la producción por cada trabajador, a menor costo, como buscó el capital desde siempre.

Claro que ante la imposibilidad de humanizar los robots, siempre está la posibilidad de robotizar los humanos: Amazon no ha desmentido la obtención de dos patentes para que los trabajadores usen una pulsera que controle sus movimientos y alerte cuando esté haciendo algo mal, cuánto tiempo se toma para ir al baño o prenderse un zapato. La pulsera emitiría pulsos de ultrasonido para controlar las manos de los trabajadores y daría “orientación táctil” para orientar al trabajador hacia el contenedor indicado, para armar los pedidos más rápido. No se aclara la intensidad de la “orientación”, pero es difícil no asociar este artilugio con la tobillera que deben usar los condenados con prisión domiciliaria

Pero ésta no es la única limitación de los robots actuales. ¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno. ¿Cuántas computadoras se necesitan para identificar un gato? La empresa que hizo el experimento nos informa: 16.000, procesando 10 millones de vistas en Youtube. ¿Cómo hace un niño para reconocer un gato con un solo ejemplo? No tenemos ni idea, confiesan (Autor, 2015).

Esto es conocido como la paradoja de Polanyi: ”Sabemos más de lo que podemos decir “(Polanyi 1966; Autor 2015). Para romper un huevo sobre el borde de un recipiente, identificar una especie distinta de aves basada en un fugaz vislumbrar, escribir un párrafo persuasivo o desarrollar una hipótesis para explicar un fenómeno, nos estamos involucrando en tareas que sólo entendemos tácitamente cómo realizar, pero para las cuales ni los programadores de computadoras ni nadie más puede enunciar las “reglas” explícitas o procedimientos.

Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, ofrece un resumen de algunas de las limitaciones de los robots desarrollados hasta la fecha. El razonamiento robótico es limitado, y “el alcance del razonamiento del robot está completamente contenido en el programa. Las tareas que los humanos dan por sentado –por ejemplo, responder a la pregunta: ¿He estado aquí antes?– son extremadamente difíciles para los robots”. Además, si un robot encuentra una situación que no se ha programado específicamente para manejar, ”entra en un estado de error y deja de funcionar“.

1 COMENTARIO

  1. Los robots y la computacion solo aumentan la plusvalia, son herrmientas de trabajo.
    Sinembargo no aumentan el consumo de mercaderias y eso crea crisis.

Sumate a la discusión dejando un comentario:

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí