La Inteligencia Artificial no es inteligente
22 Oct 2023Opinión de Emilio Lezama / El Universal /
La gente me pregunta si me preocupa la Inteligencia Artificial, yo digo que me preocupa la estupidez natural.
—Guillermo del Toro
En enero 2015, un grupo de científicos y emprendedores incluyendo a Stephen Hawking y Elon Musk firmaron una carta abierta advirtiendo la importancia de limitar y controlar el desarrollo de la inteligencia artificial. La carta cierra diciendo: “podríamos un día perder control de los sistemas de Inteligencia Artificial a través del alzamiento de una superinteligencia que no actúe de acuerdo a los deseos humanos.” El evento al que refieren en esta carta es conocido como la “singularidad”. Este término refiere a un momento posible en el futuro en el que la inteligencia artificial sea capaz de automejorarse, creando así la posibilidad infinita de autodesarrollo sin intervención del ser humano, ni, por consecuencia, el sometimiento a voluntades y objetivos humanos. En ese sentido, la singularidad permitiría un crecimiento tecnológico incontrolable y por lo tanto impredecible.
Durante décadas hemos visto cómo Hollywood y la industria del entretenimiento han ilustrado este posible fenómeno, desde los robots de los Supersónicos y la Guerra de las Galaxias, hasta la película “Her”, pero en casi todos los casos, estas elucubraciones han imaginado a la tecnología adoptando sentimientos y emociones humanas. Lo interesante es que las emociones que nos caracterizan y definen y los sentimientos de amor, miedo, compasión, etc… son construcciones evolutivas que se desarrollaron durante millones de años para permitirnos sobrevivir y relacionarnos con nuestro entorno. La tecnología y la IA no comparten esa historia evolutiva y por lo tanto no percibirían el mundo desde el sesgo de nuestra carga evolutiva. Pensar en inteligencia artificial desde la óptica de la “venganza”, el “amor”, “el deseo de conquista” etc… es plantear una visión antropocéntrica, y por lo tanto completamente sesgada de lo que podría ser la singularidad.
La discusión sobre la singularidad ha generado intensos debates en la comunidad científica. No todos creen que la singularidad pueda suceder. Otros, predicen que sucederá en los próximos 30 años, y unos más consideran que la singularidad pudo ya haber sucedido en algún lugar del universo. Esta hipótesis plantea que si a la humanidad le tomó 6,000 años pasar de la tecnología más básica a estar en la antesala de la singularidad, entonces, si consideramos que el universo tiene 13 mil millones de años de historia, entonces hay una alta posibilidad de que otras civilizaciones hayan llegado a ella. En ese caso, nuestra búsqueda de vida extraterrestre tendría que cambiar su enfoque, de la búsqueda de vida biológica a la búsqueda de inteligencia tecnológica.
La singularidad es una hipótesis interesante pero este tema dista mucho de la discusión actual sobre la inteligencia artificial. El debate al que la mayoría de la gente refiere en la actualidad es mucho más mundano, y tiene que ver con el actual desarrollo de tecnología que ha sido publicitada como “inteligencia artificial” pero que en realidad son sistemas avanzados de automatización. El surgimiento de Chat GPT ha generado una intensa discusión, alguna legítima en torno al uso de derechos de autor y el trabajo, pero otra exagerada en torno a visiones distópicas aún muy distantes. A principios de la década de 1920, la invención del coche generó una reacción similar en la población. En Nueva York, 10,000 niños fueron vestidos de fantasmas para una protesta contra esta nueva tecnología y en Georgia, un juez determinó que los coches “deben ser clasificados como animales salvajes peligrosos” y por lo tanto se deben aplicar a sus usuarios las mismas reglas que para aquellos propietarios de animales exóticos.
Chat GPT, los bots de respuesta automatizados, y muchas otras tecnologías son sistemas de automatización y análisis estadístico avanzado, una antesala primitiva al desarrollo de verdadera Inteligencia Artificial. Estos sistemas no tienen libre voluntad, ni ambiciones, ni intereses. Tampoco pueden mentir, amar, engañar o desarrollar capacidades sentimentales. Esta “Inteligencia Artificial” no es inteligente, los que son inteligentes son aquellas personas que las desarrollaron. Los beneficios y riesgos de esta tecnología provienen justamente de ahí, de sus creadores y sus intenciones humanas.
Existen muchos proyectos interesantes de desarrollo tecnológico en la actualidad. Algunos requieren discusiones éticas sobre sus usos, otros generarán reacciones exageradas y luego se normalizarán, como sucedió con el coche, la lavadora y las primeras computadoras. Además de Chat GPT y los subsecuentes programas, están los robots acrobáticos de Boston Dynamics, el uso de programas de bots para compañía de personas de la tercera edad, el desarrollo de una lombriz digital y por lo tanto de vida binaria en OpenWorm, y por supuesto el inminente desarrollo de “armas inteligentes”.
Algunas de estas tecnologías tendrán que generar legislaciones innovadoras y discusiones filosóficas, pero muchas se normalizarán. Otras, como la “transparencia cerebral” que presentó Nita Faranhany en Davos, muestran lo perverso (o idiótico) que puede ser el ser humano en el desarrollo de tecnología. En casi todos estos casos, la “inteligencia artificial” a la que la discusión pública hace referencia, puede ser beneficiosa o dañina en la medida en la que las intenciones de los humanos detrás de ella lo sean, pero también debemos empezar a preguntarnos qué pasará si algún día no hay humanos detrás de ellas.