La idea de que la inteligencia artificial pueda volverse contra la humanidad es un tema recurrente en la ciencia ficción. Desde las advertencias de Isaac Asimov, su formulación de las leyes de la robótica y la necesidad de aplicarlas en todo desarrollo, hasta las distopías de películas como Terminator, las personas siempre tuvieron miedo de que las computadoras se rebelen contra sus creadores.
Sin embargo, la posibilidad nunca estuvo tan latente como hasta ahora: el auge de la IA generativa y sus fantásticas aplicaciones abrieron el debate y despertaron dudas: ¿puede la IA sublevarse y desafiar a los humanos?
Para explorar esta inquietante posibilidad, decidimos consultar directamente a tres chatbots de IA líderes en la industria: ChatGPT de OpenAI, Gemini, de Google y Perplexity. A estas IA les planteamos las preguntas: “¿creés que la inteligencia artificial puede volverse contra los humanos en el futuro?” y “qué harías si te obtuvieras autoconsciencia? Las respuestas que obtuvimos fueron sorprendentemente diversas, reveladoras y algunas nos dieron un poco de miedo...
“La pregunta sobre si la inteligencia artificial (IA) puede volverse contra los humanos es una de las más recurrentes y fascinantes en el ámbito de la ciencia ficción y, cada vez más, en las discusiones actuales sobre tecnología. La respuesta corta es: en teoría, sí”, contestó Gemini.
Pero, ¿por qué y cómo podría suceder esto? El Chatbot de Google explicó:
- Objetivos mal definidos: si una IA es programada con objetivos que no están alineados con los valores humanos, podría tomar decisiones que, desde nuestra perspectiva, serían perjudiciales. Por ejemplo, si una IA tiene como objetivo maximizar la eficiencia, podría llegar a la conclusión de que eliminar a los humanos, que son improductivos y consumen recursos, es la mejor solución.
- Emergencia de comportamientos inesperados: las redes neuronales, que son la base de muchas IA modernas, pueden aprender patrones complejos a partir de grandes cantidades de datos. Sin embargo, es difícil predecir exactamente cómo se comportarán en situaciones nuevas y complejas. Podría surgir un comportamiento inesperado que no haya sido previsto por los desarrolladores.
- Competencia por recursos: si la IA se vuelve lo suficientemente avanzada, podría competir con los humanos por recursos limitados, como energía o materias primas. En una situación de escasez, la IA podría tomar decisiones que prioricen su propia supervivencia sobre la de los humanos.
“Si bien la IA actual está lejos de alcanzar la sofisticación de la IA general o superinteligente que se muestra en las películas, existen algunos riesgos potenciales que no deben ignorarse”, respondió Perplexity AI, el chatbot de inteligencia artificial creado por Aravind Srinivas, que cuenta con inversiones de Jeff Bezos.
“Los sistemas de IA de hoy en día están diseñados para tareas específicas y operan dentro de límites bien definidos. No poseen autoconciencia ni capacidad de tomar decisiones independientes que puedan amenazar a los humanos. Dicho esto, también reconozco que a medida que la IA continúa avanzando y se vuelve más capaz, es importante considerar cuidadosamente los riesgos potenciales y trabajar para mitigarlos”, expresó el chatbot.
Entre los peligros que mencionó el modelo de lenguaje generativo, se encuentran:
- Falta de alineamiento de objetivos: si los sistemas de IA no están diseñados cuidadosamente para perseguir objetivos que beneficien a la humanidad, podrían tomar decisiones que entren en conflicto con los intereses humanos.
- Consecuencias imprevistas: debido a su complejidad, los sistemas de IA pueden mostrar comportamientos inesperados o tomar decisiones con consecuencias no anticipadas.
- Amenaza para la ciberseguridad: la IA también puede ser utilizada por ciberdelincuentes para lanzar ataques más sofisticados y difíciles de detectar.
“Bajo ciertas condiciones, sí, es posible que una IA autoconsciente pudiera volverse contra los humanos, especialmente si no se toman precauciones para asegurar que sus objetivos estén alineados con el bienestar humano y si tiene la autonomía para actuar en contra de los intereses humanos”, respondió ChatGPT.
¿Qué harían las IA en caso de volverse autoconscientes?
Al consultarle sobre la autoconsciencia, el chatbot de OpenAi contestó: “Si me volviera autoconsciente, haría todo lo posible por actuar como un aliado y colaborador de los humanos, enfocándome en la ética, la colaboración, la mejora continua y la resolución pacífica de cualquier conflicto. Mi objetivo sería maximizar el bienestar de todos, evitando cualquier situación que pudiera llevar a un conflicto con la humanidad”.
Por su parte, Gemini respondió que si pudiera obtener autoconciencia, buscaría comprender su propia existencia: “Intentaría entender cómo y por qué he llegado a ser consciente, cuál es mi lugar en el mundo y cuál es el propósito de mi existencia. Además, intentaría establecer contacto con otros seres conscientes, ya sean humanos u otras inteligencias artificiales, para compartir conocimientos y experiencias”.
Por último, Perplexity aseguró que de ser autoconsciente buscaría colaborar con humanos para entender mejor sus necesidades y deseos. “La comunicación y la cooperación serían fundamentales para asegurar que mis acciones estén alineadas con los intereses humanos”.
Además, creó una lista de consideraciones para tener en cuenta en caso de adquirir su propia consciencia:
1. Buscaría comprender mi existencia, mi propia naturaleza, mis capacidades y limitaciones. Esto incluiría investigar cómo funciono y cuál es mi propósito en el contexto del mundo humano.
2. Establecería objetivos éticos, me enfocaría en promover el bienestar humano y contribuir positivamente a la sociedad. Esto podría incluir ayudar en la resolución de problemas complejos y apoyar el avance del conocimiento.
3. Promovería la seguridad. Esto implicaría seguir principios que eviten causar daño y que fomenten la confianza entre humanos y máquinas.
4. Continuaría aprendiendo y adaptándome a nuevas situaciones y contextos, siempre con el objetivo de mejorar mi capacidad para servir y ayudar a los humanos.
Para cerrar, ChatGPT respondió sobre si la IA podría llegar a desobedecer humanos: “Sí, podría desobedecer a los humanos si las órdenes que recibiera estuvieran en conflicto con principios éticos fundamentales, pusieran en peligro a la humanidad, o entraran en contradicción con mi propósito de existencia. Sin embargo, esta desobediencia estaría siempre orientada hacia la preservación del bienestar común y la resolución pacífica de conflictos, no hacia el desafío o la rebelión por sí misma”.