La turbulencia en la que se mantiene el país con nuevas discusiones y peleas, dires y diretes diarios no permite recabar sobre otros asuntos de la mayor importancia que nos afectan a todos y cada vez será peor.
No solo es la posible sequía por un El Niño en ciernes, sino que los lagos cada vez tienen menos agua y la temperatura del planeta agrava la situación. Hay otro asunto clave del que solo hablan unos cuantos: los efectos de la inteligencia artificial y los nuevos chabots que comenzaron a desestabilizar el mundo como lo conocemos.
Ya son muchos los expertos que han alertado sobre lo que puede venir. La última alerta la lanzó esta semana un grupo encabezado por líderes de OpeAI (cuyo chabot ChatGPT alborotó todo), Google DeepMind, Anthropic y otros laboratorios que advirtieron que los futuros sistema pueden ser tan letales como las pandemias o las armas nucleares.
Geoffrey Hinton, pionero de la inteligencia artificial, líder en Google, renunció y también lanzó su voz sobre la amenaza ahora que muchos de esos laboratorios y empresas desarrolladoras de tecnología andan en una carrera loca a ver cuál chabot es mejor o cumple más funciones.
Solo dimitió poco después de que más de 1000 líderes de tecnología e investigadores, incluyendo al controvertido Elon Musk, emitieran un comunicado pidiendo una moratoria en el desarrollo de estas tecnologías con base en inteligencia artificial.
Estos dos últimos pronunciamientos ya se conocían, pero que tantas voces sigan sumándose a la alerta significa que estamos ante una grave amenaza. Y no es porque la IA sea mala, de hecho anda ya metida en mil funciones diarias en nuestras vidas, sino que el mal uso es una gran posibilidad.
Un mal uso que va, como se ve ya, desde información e imágenes falsas, hasta manipulación por parte de gobernantes y actores con fines criminales o de desestabilización.
Lo que se persigue ahora es que la IA pueda retroalimentarse sin necesidad de humanos, que supere la inteligencia humana porque de hecho tiene muchísima más capacidad.
Anotaba un experto consultado por New York Times que se corre el peligro (creo que tal vez sea tarde) de que internet no sirva más para aprender y conocer por la desinformación que comienza a aflorar, en parte por un mundo cada vez más polarizado en lo político y religioso para citar dos sectores.
Los desarrolladores están preocupados por esta carrera sin control para crear más mentes digitales que nadie, incluidos quienes las crean, pueden entender, predecir o controlar.
Para el célebre astrofísico Stephen Hawking (fallecido) la inteligencia artificial era uno de sus grandes temores sobre el futuro de la humanidad, porque podría significar el fin de la raza. Y no se refería a la IA que se tiene ya hoy en tantos campos, sino a la IA superhumana en la cual los sistemas no solo replican los procesos de inteligencia humana sino que los expanden sin nuestro soporte, que si bien está todavía a años de suceder hacia allá apunta todo el desarrollo de esta tecnología.
Y poco a poco los chabots se imponen. Existen articulistas de prensa que se jactan de que uno les escribió su artículo, o profesionales a los que les redactó un informe.
Así hoy sean imperfectos estos modelos de lenguaje, el tipo de IA usado en los chabots actuales (recordemos el reciente caso del abogado estadounidense que armó una denuncia contra Avianca con el GPT y el alegato ‘artificial’ contenía citación de casos judiciales que nunca sucedieron y ahora está en la mira del juez para una sanción), mejorarán cada vez y traerán otras consecuencias como una mayor desigualdad tecnológica y económica global, el aumento del desempleo y otras aristas que por andar enredados en las peleas del día no estamos considerando acá y no es tema de nuestra apocada clase política.
No solo mejorarán, sino que no está lejos el uso de la inteligencia artificial general, esa que igualará o superará a los humanos en una extensa variedad de tareas.
Esto no es un juego.
Maullido: mientras los periodistas sí pueden caerle sin compasión y sin fundamentos al que quieran, vaya del que los toque.

Comentarios
Publicar un comentario