Un grupo de expertos, entre los que se encuentra Elon Musk, firmaron una carta en la que solicitan frenar el avance de la Inteligencia Artificial.
Según indicó CNBC, durante la Cumbre del Gobierno Mundial en Dubai, Emiratos Árabes Unidos, el magnate sostuvo que “uno de los mayores riesgos para el futuro de la civilización es la IA (Inteligencia Artificial)”.
Asimismo, indicó que “es positivo o negativo y tiene una gran promesa, una gran capacidad”. Sin embargo, también remarcó que “con eso viene un gran peligro”.
Expertos en tecnología se.sunan a la petición
Grandes referentes de la tecnología se unieron en un pedido difundido por el sitio Future of life que se tituló Carta abierta FLI: Pausar los experimentos gigantes de la IA.
Allí solicitaron que “los laboratorios pausen de inmediato y durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″.
Una de las cosas más llamativas fueron los importantes nombres que se encontraron en la lista de los firmantes, que ya son más de 1100.
Además de Musk, también están Yoshua Bengio, Stuart Russell, el cofundador de Apple Steve Wozniak, Yuval Noah Hariri, Andrew Yang, Connor Leahy y Emad Mostaque.
Preocupación por los sistemas de IA
La clave del pedido está en la preocupación que genera el desarrollo de sistemas de IA con inteligencia humana-competitiva, y los riesgos que puedan provocar en la sociedad.
“Hacemos un llamado a todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4″, precisaron en la carta que se publicó en Futurelife.org.
“Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación”, destacaron.
Agregaron que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”.
Alertan que no hay planificación
Del mismo modo alertaron que desafortunadamente, este nivel de planificación y gestión no está ocurriendo.
“En los últimos meses los laboratorios de IA entraron en una carrera fuera de control para desarrollar e implementar mentes digitales pero, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, sumaron.
Lea también
• Estos son los cuatro mejores juegos de política online
Entre los planteamientos de los expertos señalan que los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales.
En este sentido, “debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?”
Igualmente, sostuvieron que “los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
En otro fragmento del texto, hicieron el pedido puntual: “Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4″.
Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. “Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, concluyeron.
Con información de La Nación