Hace poco más de medio siglo que se habla de inteligencia artificial (IA), un concepto que se asocia a la capacidad que tienen las máquinas de recoger datos a través de sensores, clasificar información, aprender, razonar, predecir e interactuar.
Desde hace décadas, la ciencia ficción se ha alimentado de historias sobre máquinas que se rebelan contra los humanos, o de robots y sistemas computacionales que tienen el potencial para imitar capacidades humanas, como el razonamiento, emociones o comportamientos.
¿Son posibles estos escenarios en un mundo donde cada vez son más los objetos cotidianos que se vuelven “inteligentes”? ¿Cuál es el estado real de la IA?
DATOS QUE NUTREN
En el informe The Age of AI. How artificial intelligence is transforming organizations (2017), la analista Susan Etlinger, de Altimer Group, una compañía de Prophet con sede en San Francisco, California, explica que después de varios intentos a través de décadas, la IA parece finalmente estar fraguándose gracias a desarrollos como el crecimiento de los datos, mejores algoritmos, el aprendizaje automático y una mayor demanda de eficiencia computacional que está bajando en costos.
Hoy día, grandes empresas como Google, Facebook, Amazon o Microsoft, están incorporando la IA en su núcleo operacional.
Facebook tiene una división de investigación en IA (FAIR, por sus siglas en inglés), que abarca áreas teóricas, de algoritmos, software, hardware y aplicaciones. Incluso, la empresa ha anunciado que usará la IA para ayudar a prevenir los suicidios entre sus usuarios.
Salesforce e IBM lanzaron hace poco una alianza para usar la IA en la automatización y mejoras de soft- ware. Los analistas ven un gran crecimiento de la IA a futuro.
De acuerdo con la revista It is Innovation (i3), de la Asociación de Tecnología de Consumo de Estados Unidos, la firma International Data Corp. prevé que para el año 2020, el mercado de IA será de unos 40 mil millones de dólares. Y un estudio de General Electric indica que el aprendizaje de las máquinas aumentará la capacidad productiva en 20%, a la vez que disminuirá el consumo de material en 4%.
Gartner proyecta que para entonces, los algoritmos van a alterar positivamente la vida de miles de millones de trabajadores en el mundo.
La agencia AFP, citando un estudio de la consultora Deloitte, señalaba a principios de marzo —a propósito del Congreso Mundial de Móviles en Barcelona—, que a lo largo de este año, uno de cada cinco móviles ya estará equipado con funciones de aprendizaje de máquinas (autoaprendizaje).
Pero los vehículos autónomos, los asistentes personales de voz , sistemas de reconocimiento de imágenes y los smartphones con IA, son solo la punta del iceberg.
Como describe Etlinger, quien visitó Panamá en febrero pasado para exponer sobre este tema en el evento de tecnología “Pandemonio”, el valor transformador de la IA no siempre debe verse en los ejemplos más llamativos.
“Las máquinas que pueden aprender de nuevos datos y transformar sus propios algoritmos son una gran promesa para el análisis predictivo”.
Además, ciertamente la IA afectará a los trabajadores, por lo que entender qué es y qué no es IA ayudará a hacer planes, ya sea a un colaborador o a un ejecutivo.
Y es, precisamente, la sustitución de trabajadores por robots o máquinas, una de las preocupaciones de los avances tecnológicos. En un evento en Alemania a principios de este año, Satya Nadella, CEO de Microsoft Corp., expresó que Microsoft y sus competidoras deberían evitar los sistemas de inteligencia artificial que reemplazan a las personas en vez de maximizar su tiempo.
En su informe, Etlinger también hace hincapié en que “el reto fundamental para definir qué es IA, es que no es posible traducir la inteligencia humana en una forma digital, simplemente porque no hay consenso sobre qué es la inteligencia humana”.
En 1983, el psicólogo Howard Gardner propuso que los humanos tienen más de un tipo de inteligencia, entre estas, la intrapersonal, interpersonal, espacial, naturalista, musical, lingüística, lógica-matemática, existencial y la corporal-kinestésica.

Tomando como base esta clasificación, Etlinger menciona que podría señalarse que las computadoras son excelentes en el razonamiento lógico-matemático, y si se “entrenan”, pueden reconocer e interpretar imágenes, lenguajes, música y relaciones espaciales. Pero, cuestiona, ¿pueden ser creativas, justas o tener empatía? ¿Es eso lo que queremos?
“Hoy día, científicos, filósofos e ingenieros exploran estas interrogantes y los límites de lo que puede y debe hacer la IA”, detalla.
DEBILIDAD O FORTALEZA
Se considera una IA “débil” aquella que está diseñada para un uso específico, como los motores de búsqueda y recomendaciones y los chatbots. No obstante, no se debe pensar que esta categorización implica ausencia de valor. Al contrario, gracias a algoritmos avanzados, la IA débil puede captar datos y procesarlos, aportando valor económico en varias aplicaciones.
Por otro lado, la IA “fuerte” es capaz de replicar la inteligencia humana en términos generales, lo que incluye la capacidad de percibir a través de sensores, clasificar, aprender, razonar, predecir e interactuar con otras máquinas o con personas.
Para que las máquinas alcancen el nivel de IA fuerte deben ser “entrenadas” usando grandes cantidades de datos para que puedan clasificar. Es decir, deben aprender por sí mismas, no solo ser programadas con un fin específico.
Incluso la cualidad de las máquinas para “aprender” o machine learning, tiene varias clasificaciones. El aprendizaje profundo o deep learning se refiere a que un software simula a las neuronas en el cerebro, y “traduce” cosas que un humano puede percibir fácilmente, en algo que las computadoras puedan reconocer. Al final se busca que los sistemas “descubran” no solo contenidos, sino contextos.
Para Aneesh Karve, fundador y director en jefe de Tecnología de la compañía Quilt Data, de Arizona (EU), los algoritmos que potencian el aprendizaje de las máquinas y la IA están sujetos a los mismos errores o defectos de la inteligencia humana.
Tienen un sesgo y dependen de “atajos” para encontrar información rápidamente, pero eso puede tener un precio. A veces las máquinas confunden conceptos por ser muy literales o dan falsos positivos, por ejemplo, al identificar una imagen.
“Algunos podrán decir: que la máquina necesita mejor entrenamiento para que pueda entender mejor los conceptos. Puede ser cierto pero, debido a la estructura matemática de la IA, nunca habrá una IA subjetiva”, indica Karve.
DESAFÍOS
Más allá de los aspectos técnicos, la IA tiene el potencial de servir para muchas aplicaciones, anticipando necesidades.
En las organizaciones, puede ser útil para el mercadeo, desarrollo de productos, para el servicio al cliente, manejo de riesgos, etc.
Pero la transparencia, los principios éticos, la privacidad en el uso de datos y la gobernanza serán cruciales.
Al respecto, Karve reconoce que programar es muy difícil cuando se involucra la ética. Por ejemplo, si la IA debe elegir entre salvar la vida de los pasajeros en un carro o la de un peatón, ¿cómo debe decidir? ¿Cómo escoge entre una baja probabilidad de matar a muchas personas o una alta probabilidad de matar pocas personas?
Las máquinas tienen sus beneficios, pero también riesgos, pueden ser sensitivas a estrategias de manipulación social, hackeo de secretos de estado, etc. Por ello, hay que prepararse para el futuro, para que la IA no se convierta en una caja de Pandora.
Se debe considerar que las máquinas tienen defectos y sesgos, subraya Karve. “¿Cómo se va a programar una súper IA? ¿Cómo decirle cuáles son los valores humanos? ¿Cómo contener algo que es más inteligente que nosotros? ¿Cuáles serán los principios que se le instruyan?”.





