STAMFORD.- La inteligencia artificial (IA) plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear, advirtieron en una carta un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y el director ejecutivo de OpenAI, Sam Altman, entre otros.
El comunicado de un párrafo publicado por el Center for AI Safety, una organización sin fines de lucro con sede en San Francisco, dice que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Otros de los firmantes del comunicado son Geoffrey Hinton, quien fue bautizado como el “padrino” de la IA y tuvo parte de su carrera en Google, y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018, premio conocido popularmente como el Premio Nobel de la informática, por su trabajo en IA.
Consecuencias de la Inteligencia Artificial
La inteligencia artificial (IA) se refiere en términos generales a cualquier conducta humana que desarrolle una máquina o sistema.
En la forma más básica de inteligencia artificial, los PC están programados para “imitar” la conducta humana utilizando amplios datos de ejemplos previos de conductas similares.
Este enfoque puede englobar desde reconocer diferencias entre un automóvil y un ave hasta realizar actividades complejas en una fábrica.
Desde que el chatbot de OpenAI, llamado ChatGPT, se lanzó en noviembre de 2022 ha aumentado la preocupación sobre las consecuencias que podría conllevar el éxito de esta tecnología, siendo dos de los mayores temores la difusión a gran escala de desinformación y propaganda y la posible eliminación de trabajos de todo tipo.
Por su parte, Hinton, en una reciente entrevista con The New York Times el pasado 1º de mayo, fue un paso más lejos. Señaló su preocupación por que esta tecnología supere la capacidad intelectual de un humano.
“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, explicó en esa entrevista.
“Pero la mayoría de la gente pensaba que estaba muy lejos, yo era uno de ellos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, explicó Hinton.
Este mes, Altman, Hassabis y Amodei se reunieron con el presidente de los Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la AI.
Además, el director ejecutivo de OpenAI testificó ante el Senado federal. Y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del Gobierno.
En marzo pasado, más de mil empresarios e investigadores del sector tecnológico, entre ellos Elon Musk, quien no firmó la carta, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4”, el último modelo de OpenAI.
EEUU y Europa trabajan en creación de código de conducta para inteligencia artificial
Tras lo expresado en el comunicado, los científicos y líderes tecnológicos advirtieron que mitigar los riesgos de la IA debe ser una prioridad a nivel mundial debido a que puede conducir a la extinción humana.
Estados Unidos y Europa están elaborando un código voluntario de conducta para la Inteligencia Artificial, según anunció un funcionario de alto rango de la Unión Europea, mientras la tecnología en desarrollo suscita inquietudes sobre los riesgos que plantea para la humanidad y cada vez más llamados para que se regule.
El código voluntario reduciría la brecha mientras la Unión Europea (UE), de 27 naciones miembros, trabaja en unas normas sin precedentes que entrarían en vigor hasta dentro de unos tres años, comentó la vicepresidenta de la Comisión Europea, Margrethe Vestager, durante una reunión del Concejo de Comercio y Tecnología de la UE y los Estados Unidos, que está dirigido de manera conjunta por funcionarios estadounidenses y europeos.
“Necesitamos Inteligencia Artificial responsable. La Inteligencia Artificial Generativa cambia por completo las cosas”, recalcó Vestager, añadiendo que prevé que en las próximas semanas esté listo un borrador del código.
Etapas de la Inteligencia Artificial
Las tecnologías de IA se clasifican por su capacidad para imitar las características humanas. Las tres etapas de la IA son:
1- Inteligencia artificial estrecha (ANI): La categoría más básica de IA es más conocida por sus siglas en inglés: ANI, por Artificial Narrow Intelligence.
De acuerdo con los expertos, se llama así porque se enfoca estrechamente en una sola tarea, realizando un trabajo repetitivo dentro de un rango predefinido por sus creadores.
Los sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo de internet) y pueden tomar decisiones o realizar acciones basadas en ese entrenamiento.
Una ANI puede igualar o superar a la inteligencia y eficiencia humana pero solo en esa área específica en la que opera. Un ejemplo son los programas de ajedrez que usan IA. Son capaces de vencer al campeón mundial de esa disciplina, pero no pueden realizar otras tareas. Se le conoce como la “IA débil”.
- Inteligencia artificial general (AGI): Esta categoría llamada Artificial General Intelligence se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano. Es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona. También se la conoce como “IA fuerte”.
“Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que en marzo pasado más de mil expertos en tecnología pidieron a las empresas de IA que dejen de entrenar, por al menos seis meses, a aquellos programas que sean más poderosos que GPT-4, la versión más reciente de ChatGPT”, expresaron los expertos.
3- Súper Inteligencia Artificial (ASI)
La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando se alcance la AGI, poco tiempo después se arribará al último estadio en el desarrollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.
El filósofo de la Universidad de Oxford y experto en IA, Nick Bostrom define a la súper inteligencia como “un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”.
La teoría es que cuando una máquina logre tener una inteligencia a la par con la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI. (Servicios combinados).
PIE DE FOTO
Desde que el chatbot de OpenAI, llamado ChatGPT, se lanzó en noviembre de 2022 ha aumentado la preocupación sobre las consecuencias que podría conllevar el éxito de esta tecnología, siendo dos de los mayores temores la difusión a gran escala de desinformación y propaganda y la posible eliminación de trabajos de todo tipo.