Líderes tecno advirtieron sobre los riesgos de la inteligencia artificial para la sociedad y la humanidad
A través de una carta abierta, empresarios y expertos aseguraron que las IA suponen una amenaza para el control humano sobre nuestra civilización: “los desarrollos con esta tecnología están fuera de control”.
Una carta abierta firmada por Elon Musk, Steve Wozniak y otros destacados expertos en tecnología y líderes del sector, pidió a las empresas de la industria que hagan una pausa de seis meses para en los desarrollos de programas y aplicaciones con inteligencia artificial.
En el documento, los líderes tecno advirtieron sobre los peligros potenciales de estos avances y afirmaron que la carrera por los desarrollos con esta tecnología están “fuera de control”.
“Los sistemas de inteligencia artificial pueden plantear profundos riesgos para la sociedad y la humanidad”, aseguraron en su conjunto los especialistas que firmaron la carta.
“¿Deberíamos desarrollar mentes no humanas que con el tiempo podrían superarnos en número e inteligencia, y reemplazarnos?” se preguntaron Musk, Wozniak, Evan Sharp, fundador de Pinterest, Chris Larsen, cofundador de Ripple, Craig Peters, CEO de Getty Images, y un grupo de expertos, analistas, profesores e investigadores de diferentes empresas y universidades.
Las razones por las que los lideres tecno pidieron que se detenga el desarrollo de aplicaciones con inteligencia artificial
Stuart Russell, firmante de la carta y profesor de informática de la Universidad de California en Berkeley, declaró ayer a la BBC: “Los sistemas de inteligencia artificial plantean riesgos significativos para la democracia a través de la desinformación como arma, para el empleo a través del desplazamiento de las habilidades humanas y para la educación a través del plagio y la desmotivación”.
Según proyectó Russell, en el futuro los sistemas de inteligencia artificial podrán suponer una amenaza para el control humano sobre nuestra civilización: “Tomar precauciones sensatas es un pequeño precio a pagar para mitigar estos riesgos”, agregó el investigador.
En concreto, el pedido de los líderes tecno urge a los laboratorios de IA que suspendan inmediatamente, durante al menos seis meses, el entrenamiento de sistemas de más potentes que GPT-4. En caso de que no sea posible hacerlo con rapidez, los gobiernos deberían intervenir e instituir una moratoria, aseguran: “También serían necesarias autoridades reguladoras nuevas y capaces dedicadas a la IA”.
La carta abierta en la que Elon Musk y otros líderes piden que se suspendan los avances con IA
La carta, que ya firmaron casi 1400 personas, fue redactada por Future of Life Institute, una organización sin fines de lucro que, según su propia definición, busca “alejar las tecnologías transformadoras de los riesgos extremos a gran escala y dirigirlas hacia el beneficio de la vida”.
La ONG señala el rápido desarrollo de las capacidades de la tecnología de IA y cómo ha superado el rendimiento humano en muchas áreas. En el documento, se pone el ejemplo de cómo la IA utilizada para crear nuevos tratamientos farmacológicos podría utilizarse fácilmente para crear patógenos mortales.
Por otra parte, los expertos sostienen que los sistemas de IA tan potentes deben desarrollarse solamente cuando se esté seguro de que sus efectos serán positivos y sus riesgos controlables.
Por estas razones, el documento afirmó que los laboratorios de IA y los expertos independientes deben aprovechar la pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzadas que garanticen que son seguras más allá de toda duda razonable.
Tal vez lo más significativo sea que la carta señala como motivo de preocupación la reciente introducción de GPT-4, el chatbot de inteligencia artificial desarrollado por la empresa OpenAI, con sede en San Francisco.
Señalando el potencial que un programa como GPT-4 podría tener para crear desinformación y propaganda, los líderes tecno pidieron a todos los laboratorios de IA que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de inteligencia artificial.
Más pedidos para pausar los desarrollos de inteligencia artificial
Mientras tanto, otro grupo ha llevado sus preocupaciones sobre el potencial negativo de esta tecnología. La ONG Center for AI and Digital Policy presentó el hoy una queja ante la Comisión Federal de Comercio de EE. UU. en la que pide a la agencia que suspenda el despliegue del sistema y abra una investigación.
En su denuncia, el grupo afirma que la descripción técnica del sistema GPT-4 facilitada por sus propios fabricantes describe casi una docena de riesgos importantes que plantea su uso, entre ellos operaciones de desinformación e influencia, proliferación de armas convencionales y no convencionales y ciberseguridad.
Reacciones a la carta de Elon Musk y los otros líderes tecno
Por su parte, un profesor de informática de Princeton llamado Arvind Narayanan acusó a los líderes tecno que firmaron la carta de centrarse en riesgos especulativos y futuristas.