Opinión · kⒶosTICa
En IA, el peligro somos nosotros
Publicidad
Acaba de publicarse en España el libro de la científica estadounidense Melanie Mitchell Inteligencia Artificial, guía para seres pensantes (Capitán Swing). Esta obra divulgativa es una bofetada de realidad a quienes insisten en vender las bondades de la Inteligencia Artificial (IA) con idéntica charlatanería que los vendedores ambulantes de crecepelo, pese a sus probadas limitaciones. Mitchell realiza un recorrido por esta tecnología desde que John McCarthy acuñara el término en 1956 y nos posa en la tierra, espantando cantos de sirena.
En la actualidad, vivimos una auténtica explosión de la IA. No es nuevo, lleva sucediendo así desde que en los años 50 comenzara a gestarse esta tecnología en un seminario en el Dartmouth College de EEUU, estudiando áreas como el procesamiento de lenguaje natural (PLN, por su acrónimo en inglés), las redes neuronales o el aprendizaje automático. El bullir investigador y la financiación alrededor de estas materias fue extraordinario, hasta que a mediados de los 70 dos informes del Consejo de Investigaciones Científicas de Reino Unido y del Departamento de Defensa de EEUU, calificaron de desalentadores los resultados y se cerró el grifo.
“Ese fue uno de los primeros ejemplos de un ciclo constante de burbujas y estallidos en el campo de la IA”, explica Mitchell, con variaciones de entre cinco y diez años. Ahora es evidente que vivimos un momento pico, pero la autora nos baja a ras de suelo, reconociendo los impresionantes avances que ha experimentado esta tecnología, pero tiñendo de realismo las expectativas que podemos tener de ella.
Publicidad
En su recorrido histórico por la IA, en la que cuenta con sencillez conceptos como el perceptrón que trató de emular el procesamiento de la información de las neuronas, Mitchell explica cómo hasta la fecha nadie ha dado con la tecla para construir con éxito un modelo híbrido de IA que combine el enfoque simbólico y el subsimbólico. El primero es el que se destina a tareas que requieren descripciones lingüísticas y razonamientos lógicos; el segundo, el destinado a tareas perceptivas o motoras en las los humanos no pueden definir reglas fácilmente, como es el caso del reconocimiento facial o de voces.
Las visiones apocalípticas de una IA que domine el mundo o amenace a la humanidad caen por su propio peso gracias a los argumentos expuestos por Mitchell, con una sencillez divulgativa pasmosa. La científica introduce el concepto de IA estrecha o débil para referirse a esos sistemas que solo pueden llevar a cabo una tarea estrictamente definida.
Publicidad
Para entenderlo, se remite al famoso AlphaGo, el sistema desarrollado por la británica DeepMind, que terminaría comprando Google y cuyo cofundador, Mustafá Suleyman, acaba de ser fichado por Microsoft para liderar su nueva división de IA. En 2016, AlphaGo ganó al campeón mundial de go Lee Sedol en unas partidas que vieron 200 millones de personas por internet. Aquel hito superaba con creces a la victoria en 1997 del Deep Blue de IBM al campeón de ajedrez Gary Kasparov: una jugada de ajedrez tiene una media de 35 posibles movimientos; una de go, 250 posibilidades. Pues bien, a pesar de aquel logro, AlphaGo es una IA estrecha; sería incapaz de jugar a las damas. Solo sirve para el go.
Pensar o simular pensamiento
De esta manera, pensar en una IA general multidisciplinar como un humano es hoy por hoy ciencia ficción. Además, tal y como indica Mitchell en su libro, “la suma de un montón de inteligencias estrechas nunca va a ser una inteligencia general. La inteligencia general no tienen que ver con el número de capacidades, sino con la integración de esas capacidades”. Si el ajedrez o el go se promueven entre los menores porque favorece la lógica, el razonamiento abstracto y la planificación de estrategias, los ordenadores son incapaces de aprovechar estas potencialidades. AlphaGo solo es bueno al go; punto, no desarrolla nada más ni aplica su experiencia a otro aspecto.
Publicidad
Esta incapacidad de abstracción es uno de los grandes puntos débiles de la IA que lleva a que los humanos sean necesarios para realizar tareas fáciles que hoy en día son difíciles para los ordenadores. “Lo fácil es difícil”, que decía Marvin Minsky, uno de los precursores de la IA. Como ejemplo de ello, Mitchell expone cómo estos sistemas continúan precisando del etiquetado de grandes conjuntos de datos para funcionar recurriendo a servicios 'de explotación' como el Mechanical Turk de Amazon. De hecho, las propuestas de becas académicas de IA suelen incluir una partida para trabajadores de Mechanical Turk, indica Mitchell.
Otras veces, somos nosotros mismos y mismas quienes les hacemos el trabajo a las tecnológicas, pues según la autora cada vez que utilizamos Google, Amazon, Facebook… les estamos proporcionando ejemplos de imágenes, vídeos, mensajes de texto o voz, que pueden aprovechar para entrenar sus sistemas de IA o desarrollar servicios empresariales por los que después cobran.
La falta de abstracción es tal que difícilmente un ordenador podrán entender por qué es graciosa la fotografía superior de Barack Obama pisando la báscula en la que se pesa su colaborador Marvin Nicholson, tal y como hace más de una década expuso el responsable de IA de Tesla Andrej Karpathy, recoge Mitchell. Estas carencias se pueden trasladar a los coches autónomos, cuyo uso intensivo de IA requiere de un entrenamiento que adolece de lo que en estadística se denomina 'cola larga', es decir, la larga lista de situaciones improbables, pero posibles. Eso es lo que llevó a coches de Tesla a confundir líneas de sal preparadas para combatir una tormenta de nieve con las mismas líneas de la calzada…
Inteligencia Artificial, guía para seres pensantes es una obra muy recomendable con el único 'pero' del capítulo dedicado al procesamiento de lenguaje natural pues, al haber sido escrito en 2020, ni siquiera menciona los avances experimentados con ChatGPT y OpenAI. Eso evidencia la velocidad a la que se está innovando pero, pese a ello, los algoritmos nos son capaces de pensar, tan solo de simular pensamiento; no pueden anticipar comportamientos o sentimientos con una sola imagen, no tienen sentido común. “El aspecto más preocupante de los sistemas de IA a corto plazo es que les demos demasiada autonomía sin ser totalmente conscientes de sus limitaciones y vulnerabilidades”, concluye Mitchell.
Publicidad
Lo + visto
- 01 Auge y caída de 'El Hormiguero' y Pablo Motos: de programa familiar a dar voz a los ultras y sufrir una 'Revuelta'
- 02 David Broncano alucina con el vídeo con 12 cortes subido por Vito Quiles tras abordarle por la calle: "Increíble edición, vaya fenómeno"
- 03 Así ha reventado el PP la comisión del Parlamento de Galicia que investiga los contratos de Feijóo con sus familiares
- 04 Un informe de Aemet sobre la DANA de València desmonta la versión de Mazón
- 05 La semana en que se evidenció el fracaso del reciclaje de plástico en España: "Nos llevan mintiendo todo este tiempo"
- 06 Personal de cocina del Hospital 12 de Octubre denuncia que trabaja a cinco grados y en instalaciones encharcadas
- 07 Las heridas de Pep Guardiola en la cabeza y sus palabras reabren el debate sobre las autolesiones y la salud mental
- 08 Fotomatón Leibovitz
- 09 "Un miércoles alaban la dictadura y un jueves se quejan del deterioro de la democracia": nuevo recital del diputado Emilio Delgado a cuenta de Vox
- 10 La UCO desmonta el bulo esparcido por el entorno de Ayuso de que la Fiscalía ofreció un pacto a su novio