El gran problema de la inteligencia artificial es que simplemente está programada a seguir un conjunto de pasos preestablecidos lo que le permite desempeñarse en tareas muy específicas sin la posibilidad de crear una solución por sí sola, dicho en otras palabras, es incapaz de evolucionar si sacamos el factor humano de la ecuación.



Todo el mundo habla sobre la inteligencia artificial en estos días. Incluso ya es casi un estándar en los nuevos teléfonos móviles. Pero, ya sea que estés utilizando a Siri, Alexa o sólo las funciones de autocorrección que se encuentran en el teclado de tu smartphone, no estamos creando inteligencia artificial de propósito general.

Estamos creando programas que pueden realizar tareas específicas y bastante acotadas con el único objetivo de librarnos de las tareas más rutinarias.

el problema de la inteligencia artificial 1

El problema de la inteligencia artificial: Las computadoras no pueden “pensar”

Cada vez que una empresa dice que está lanzando una nueva característica de “IA”, generalmente significa que la empresa está utilizando el aprendizaje automático para construir una red neuronal. El “aprendizaje automático” es una técnica que permite a una máquina “aprender” a realizar mejor una tarea específica.

El fin de este artículo no es bajo ningún motivo desconocer los avances en esta materia, el aprendizaje automático es una tecnología fantástica con una infinidad de usos fantásticos en una multiplicidad de campos. Pero no se trata de inteligencia artificial de propósito general, y comprender las limitaciones del aprendizaje automático te ayuda a comprender por qué nuestra tecnología de IA actual es tan limitada.

La “inteligencia artificial” de los sueños de ciencia ficción es un tipo de cerebro computarizado o robótico que piensa en las cosas y las entiende como los humanos. Tal inteligencia artificial sería una inteligencia artificial general  (AGI), lo que significa que puede pensar en múltiples cosas diferentes y aplicar esa inteligencia a múltiples campos o situaciones diferentes. Un concepto relacionado es “IA fuerte”, que sería una máquina capaz de experimentar la conciencia humana.

Aún no tenemos esa clase de IA. No estamos ni cerca de ella. Una entidad informática como Siri, Alexa o Cortana no entiende ni piensa como los humanos. En realidad no “entiende” para nada las cosas o lo que hace.

Las inteligencias artificiales que tenemos están entrenadas para hacer una tarea específica muy bien, asumiendo que los humanos pueden proporcionar los datos para ayudarles a “aprender”. Aprenden a hacer algo pero aún no son capaces de entenderlo.

El problema de la inteligencia artificial: Las computadoras no son capaces de entender

Gmail tiene una nueva función de “Respuesta inteligente” que sugiere respuestas a los mensajes de correo electrónico. La función Smart Reply identificó “Enviado desde mi iPhone” como una respuesta común. También quería sugerir “I love you” como respuesta a muchos tipos diferentes de correos electrónicos, incluidos los correos electrónicos de trabajo.

Esto se debe a que la computadora no entiende lo que significan estas respuestas. Acaba de enterarse de que muchas personas envían estas frases por correo electrónico. No sabe si quieres decirle “te quiero” a tu jefe o no.

Como otro ejemplo, Google Photos reunió un collage de fotos accidentales de la alfombra en una de nuestras casas. A continuación, identificó ese collage como un punto culminante reciente en un centro de intercambio de artículos de casas de Google. Google Photos sabía que las fotos eran similares pero no entendía su nivel de importancia. Es incapaz de discernir lo que es o no importante.

El problema de la inteligencia artificial: Las máquinas a menudo aprenden a jugar con el sistema

El aprendizaje automático consiste en asignar una tarea y dejar que una computadora decida la forma más eficiente de hacerlo, siempre basándose en una base de datos previamente cargada en su memoria. Pero debido a que son incapaces de entender, es fácil terminar con una computadora “aprendiendo” a resolver un problema de manera diferente a la solución que tú estabas esperando.

He aquí una lista de ejemplos divertidos en los que las “inteligencias artificiales” creadas para jugar y los objetivos asignados acaban de aprender a jugar con el sistema. Todos estos ejemplos provienen de esta excelente hoja de cálculo:

“Las criaturas criadas para la velocidad crecen muy altas y generan altas velocidades al caerse.”

“El agente se suicida al final del nivel 1 para no perder en el nivel 2.”

“El agente hace una pausa indefinida en el juego para evitar perder.”

“En una simulación de vida artificial donde la supervivencia requería energía pero dar a luz no tenía costo energético, una especie desarrolló un estilo de vida sedentario que consistía principalmente en aparearse para producir nuevos niños que pudieran ser comidos (o usados como pareja para producir más niños comestibles)”.

“Dado que los IAs eran más propensos a morir si perdían un juego, el poder terminar el juego era una ventaja para el proceso de selección genética. Por lo tanto, varios IAs desarrollaron formas de bloquear el juego.”

“Las redes neuronales evolucionaron para clasificar los hongos comestibles y venenosos aprovechando los datos presentados en orden alterno y no aprendieron ninguna característica de las imágenes de entrada.”

Algunas de estas soluciones pueden sonar inteligentes, pero ninguna de estas redes neuronales entendió lo que estaban haciendo. Se les asignó una meta y aprendieron la manera de alcanzarla. Si el objetivo es evitar perder en un juego de ordenador, pulsar el botón de pausa es la solución más fácil y rápida que pueden encontrar.

El problema de la inteligencia artificial: Aprendizaje automático y redes neuronales

Con el aprendizaje automático, una computadora no está programada para realizar una tarea específica. En su lugar, se alimentan los datos y se evalúa su rendimiento en la tarea.

Un ejemplo elemental de aprendizaje automático es el reconocimiento de imágenes. Digamos que queremos entrenar un programa de computadora para identificar las fotos que tienen un perro en ellas. Podemos darle a una computadora millones de imágenes, algunas de las cuales tienen perros y otras no.

el problema de la inteligencia artificial 2

Las imágenes están etiquetadas tanto si tienen un perro como si no. El programa de la computadora se “entrena” a sí mismo para reconocer el aspecto de los perros basándose en ese conjunto de datos.

El proceso de aprendizaje automático se utiliza para entrenar una red neuronal, que es un programa informático con múltiples capas por las que pasa cada entrada de datos, y cada capa les asigna diferentes pesos y probabilidades antes de tomar una decisión final.

Se basa en el modelo de cómo pensamos que podría funcionar el cerebro, con diferentes capas de neuronas involucradas en el pensamiento a través de una tarea. “El “aprendizaje profundo” generalmente se refiere a redes neuronales con muchas capas apiladas entre la entrada y la salida.

Debido a que sabemos qué fotos del conjunto de datos contienen perros y cuáles no, podemos correr las fotos a través de la red neuronal y ver si dan como resultado la respuesta correcta.

Si la red decide que una foto en particular no tiene un perro cuando lo tiene, por ejemplo, hay un mecanismo para decirle a la red que estaba equivocada, ajustar algunas cosas e intentarlo de nuevo. La computadora sigue mejorando en la identificación de si las fotos contienen un perro.

Todo esto sucede automáticamente. Con el software adecuado y una gran cantidad de datos estructurados para que la computadora se entrene a sí misma, la computadora puede sintonizar su red neuronal para identificar a los perros en fotos. Esto es lo que hoy en día llamamos “IA”.

Pero, al final del día, no tienes un programa de computadora inteligente que entienda lo que es un perro. Tienes una computadora que ha aprendido a decidir si un perro está o no en una foto. Eso sigue siendo impresionante, pero es todo lo que puede hacer.

Y, dependiendo de la entrada que le hayas dado, esa red neuronal podría no ser tan inteligente como parece. Por ejemplo, si no hubiera fotos de gatos en su conjunto de datos, la red neuronal podría no ver una diferencia entre gatos y perros y podría etiquetar a todos los gatos como perros cuando entregue las fotos reales a la gente.

¿Para qué se usa el Aprendizaje Automático?

El aprendizaje automático se utiliza para todo tipo de tareas, incluido el reconocimiento de voz. Los asistentes de voz como Google, Alexa y Siri son muy buenos en la comprensión de las voces humanas debido a las técnicas de aprendizaje automático que los han entrenado para entender el habla humana.

el problema de la inteligencia artificial 3

Se han entrenado en una gran cantidad de muestras de habla humana y se han vuelto cada vez mejores en la comprensión de qué sonidos corresponden a qué palabras.

Los vehículos de autoconducción utilizan técnicas de aprendizaje automático que enseñan al computador del vehículo a identificar objetos en la carretera y a responder correctamente ante ellos. Google Photos está repleto de funciones como Live Albums que identifican automáticamente a personas y animales en las fotos mediante el aprendizaje automático.

DeepMind de Alphabet utilizó la máquina de aprendizaje para crear AlphaGo, un programa de computadora que podía jugar el complejo juego de mesa Go y vencer a los mejores humanos del mundo. El aprendizaje automático también se ha utilizado para crear computadoras que son buenas para jugar otros juegos, desde ajedrez hasta DOTA 2.

El aprendizaje automático se utiliza incluso para el Face ID en los últimos iPhones. Tu iPhone construye una red neuronal que aprende a identificar tu rostro, y Apple incluye un chip dedicado de “motor neuronal” que realiza todo el control de números para esta y otras tareas de aprendizaje de máquina.

El aprendizaje automático se puede utilizar para muchas otras cosas, desde identificar fraudes con tarjetas de crédito hasta recomendaciones personalizadas de productos en sitios web de compras.

Pero, las redes neuronales creadas con el aprendizaje automático no entienden realmente nada. Son programas beneficiosos que pueden cumplir con las tareas para las que fueron entrenados, y eso es todo. Por lo menos por ahora…..