Una carta abierta publicada por la ONG The Elders ha advertido sobre la necesidad de tomar medidas para evitar varias amenazas a la supervivencia y bienestar de la humanidad. El texto, que también ha recibido el respaldo del Future of Life Institute, menciona entre los peligros al cambio climático, las pandemias, las armas nucleares y la inteligencia artificial sin la regulación adecuada.
La carta
En la carta se señala que es necesario adoptar estrategias de largo plazo y resolver los problemas, no limitarse simplemente a tratar de manejarlos. Para conseguir este objetivo es necesario tomar decisiones basadas en la evidencia científica y la razón y tener la humildad de escuchar a quienes son afectados por estos problemas.
Aunque estas declaraciones suelen tener mucho de manifestación de buenos deseos, en este caso por lo menos los objetivos parecen realista, aunque generales. Se pide el reinicio de las charlas sobre el armamento nuclear (generalmente relacionado con un proceso de lenta disminución de capacidades), la transición financiada hacia las energías renovables y la regulación de las IA.
IA como una herramienta
En el caso de la inteligencia artificial el objetivo es que este desarrollo se ubique de una forma clara como una herramienta para el uso de los seres humanos. Sin pintar a la tecnología como maligna por naturaleza, la idea es errar en favor de la prudencia.
En el caso del Future of Life Institute no se trata de la primera advertencia realizada sobre los peligros de la inteligencia artificial. Anteriormente había llamado a realizar una pausa y dar prioridad al desarrollo de mecanismos de seguridad.