Perspectivas suizas en 10 idiomas
La máquina y la moral

ChatGPT: ¿Inteligencia, estupidez o malicia artificiales?

niños mirando un ordenador
Cuando se le pregunta, ChatGPT responde: “No hay límite de edad para hablar conmigo”. Aunque nadie —ni menores ni personas adultas— debe tomarse al pie de la letra todo lo que dice. Copyright 2023 The Associated Press. All Rights Reserved.

Tiene respuesta para todo y habla como un libro abierto. El bot conversacional de OpenAI es el abanderado de una nueva era de la inteligencia artificial. Pero los expertos advierten que todavía está muy lejos de un cerebro humano y carece de marco legal.

¿Quién puede escapar a la ola del ChatGPT? Desde su lanzamiento hace cuatro meses, la prensa le ha dedicado —solo en Suiza— una media de 10 artículos diarios (contabilizados en el agregador de medios smd.ch). Si a esto añadimos todo lo que le han dedicado la radio, la televisión, los medios en línea y las redes sociales, podemos afirmar que pocas veces un producto se ha beneficiado de una campaña de lanzamiento —totalmente gratis— como esta.

Los comentarios —exagerados al principio— enseguida, a medida que la máquina revelaba sus defectos y los peligros que plantea para la fiabilidad de la información y la protección de los datos de quien lo utiliza, se volvieron tensos.

El 29 de marzo, un millar de expertos en tecnología redactaron una peticiónEnlace externo para que empresas y gobiernos suspendan durante seis meses el desarrollo de la inteligencia artificial (IA). Alegan “riesgos importantes para la humanidad”. Entre ellos están Steve Wozniak, cofundador de Apple, y Elon Musk, uno de los fundadores de OpenAIEnlace externo, la empresa que desarrolla ChatGPT.

Tres días después, el Garante italiano para la Protección de Datos —la autoridad nacional italiana de protección de datos— decidió bloquear el acceso al prototipo. AcusaEnlace externo a ChatGPT de recopilar y almacenar información para entrenar sus algoritmos sin ninguna base legal. La autoridad ha pedido a OpenAI que —en un plazo de 20 días— comunique las medidas adoptadas para remediar esta situación. De lo contrario, se enfrenta a una multa de hasta 20 millones de euros.

Europol —la agencia europea de policía encargada de la lucha contra la delincuencia en la Unión Europea— el 27 de marzo en un informeEnlace externo (en inglés) ya indicaba su preocupación por que los ciberdelincuentes puedan utilizar ChatGPT.

Contenido externo

>> “No es de extrañar que, tras el prematuro lanzamiento de ChatGPT y la carrera a la baja en materia de seguridad provocada por Microsoft, Google o Facebook, GPT-4 esté fuera de juego”. Dice El Mahdi El Mhamdi, profesor en la Escuela Politécnica de París, que hizo su tesis en la EPFL de Lausana bajo la dirección de Rachid Guerraoui, y es una de las voces críticas contra la falta de regulación en torno a la inteligencia artificial. En este artículo se menciona a ambos.

¿Puede ser tan peligroso el chatbot? Con su interfaz sobria hasta la simplicidad y su amabilidad un tanto afectada —como ya ocurría con Siri, Cortana, OK Google y otros— no lo parece.

Para entenderlo mejor, hay que examinar qué es esta máquina y, sobre todo, qué no es.

¿Cerebro electrónico? En absoluto

Cuando se le pregunta, ChatGPT no esconde su condición: “Como programa informático, soy, sobre todo, diferente a un cerebro humano”. Y luego explica que puede procesar cantidades masivas de datos de manera mucho más rápida que una persona, que su memoria no olvida nada, pero que carece de inteligencia emocional, de conciencia de sí mismo, de inspiración, de pensamiento creativo y de capacidad para tomar decisiones independientes.

Se debe a que la propia arquitectura de la inteligencia artificial nada tiene que ver con la del cerebro, como de manera brillante se describe en un libro que se publicará el 13 de abril (en francés): 1000 CerveauxEnlace externo [1000 cerebros]. El libro es el resultado del trabajo reciente de los equipos de Jeff Hawkins, ingeniero informático estadounidense que en los 90 fue uno de los padres de Palm, un asistente personal de bolsillo que presagió el teléfono inteligente. En la actualidad, Hawkins trabaja como neurocientífico y está al frente de la empresa de inteligencia artificial Numenta.

Una de las ideas principales del libro es que el cerebro crea puntos de referencia, cientos de miles de “mapas” de todo lo que conocemos, que modifica constantemente con la información que recibe de nuestros sentidos. Una IA, en cambio, no tiene ni ojos ni oídos y se alimenta solo de los datos que se le proporcionan, que permanecen fijos y no evolucionan.   

Ni siquiera sabe qué es un gato

Hawkins ilustra sus palabras con ejemplos sencillos. Una IA que etiqueta imágenes es capaz, por ejemplo, de reconocer un gato. Pero no sabe que es un animal, que tiene cola, patas y pulmones, que algunos humanos prefieren los gatos a los perros, o que el gato ronronea o se le cae el pelo. En otras palabras: la máquina sabe mucho menos de gatos que un niño de cinco años.

Preguntar a ChatGPT si Tintín pisó la Luna es una trampa bastante grande. La máquina no cae, y de entrada afirma que el álbum de Hergé es una obra de ficción. Pero añade que la misión lunar fue “organizada por Syldavia [reino imaginario que aparece en Las aventuras de Tintín] y Borduria [país centroeuropeo que limita con Syldavia]”.

Ah, ¿sí? Sin embargo, en el universo de Hergé, Syldavia y Borduria son un poco como Ucrania y Rusia en la actualidad, pero sin guerra… Ante esta observación, ChatGPT admite que estos dos países imaginarios “a menudo se presentan como enemigos y rivales”, pero insiste: el cohete es una colaboración entre Syldavia y la “Zbroïa Airfix de Borduria” (no se puede inventar, o más bien sí: ¿¡ni siquiera Google lo sabe!?).

Entonces, ¿qué hace el coronel Boris, un espía, a bordo del cohete al que está encargado de secuestrar? Sin inmutarse, ChatGPT asiente: Boris, efectivamente, es un espía embarcado como polizón, pero el cohete sigue siendo una colaboración entre Syldavia y lo que ahora es el “Centro espacial de Borduria”.

A la cuarta respuesta, la máquina se da cuenta, por fin, de que Borduria no tuvo nada que ver con la construcción del cohete lunar. Y como está programada para aprender de sus errores, jura que no la volverán a pillar. Una hora más tarde, con la misma pregunta, ChatGPT se ha olvidado de Borduria (y de Syldavia), pero nos anuncia que el cohete lo construyó el profesor Tournesol, posiblemente en el laboratorio donde trabaja “situado en Suiza, en las montañas” (!?).

Prueba realizada el 31 de marzo de 2023 con la versión de pago de ChatGPT

Y ¿por qué? Porque el niño ya ha visto un gato, lo ha acariciado, lo ha escuchado ronronear, y toda esta información ha enriquecido el “mapa” del gato que tiene en su cerebro. Mientras que un bot conversacional, como ChatGPT, únicamente se basa en secuencias de palabras y en la probabilidad de que aparezcan unas junto a otras.

>> Lê Nguyên Hoang, coautor de los libros de El Mahdi El Mhamdi y Rachid Guerraoui (citados más abajo), expone en este vídeo cuál es —en su opinión— el verdadero peligro de ChatGPT. [En francés]

Contenido externo

Alan Turing —el brillante matemático británico que sentó las bases de la informática— ya predijo hace más de 70 años estos límites de la IA, tal y como se construye hoy en día. En 1950, en su artículo Computing Machinery and Intelligence [Maquinaria informática e inteligencia], Turing ya vio que si queríamos construir una máquina que pensara, no sería suficiente con programarla para hacer deducciones a partir de masas de datos. La inteligencia artificial —para merecer realmente su nombre— también tendrá que poder razonar por inducción, es decir, partir de un caso particular para llegar a una generalización. Y todavía estamos muy lejos de ello.

Bien dicho y a menudo cierto

Rachid Guerraoui dirige el Laboratorio de Sistemas de Información Distribuida de la Escuela Politécnica Federal de Lausana (EPFL). Junto con Lê Nguyên Hoang, su colega que dirige el canal de Youtube Science4AllEnlace externo, en 2020 publicó Turing à la plageEnlace externo – l’IA dans un transat [Turing en la playa: la IA en una tumbona], un libro cuyo editor promete que, tras leerlo, “no se mirará [no miraremos] el ordenador de la misma manera”.

«La mayoría de las veces, lo que dice es cierto. Sin embargo, también comete grandes errores. Así que no hay que fiarse ciegamente de él». Rachid Guerraoui, EPFL

Para Guerraoui, uno de los mayores riesgos de ChatGPT es el exceso de confianza. “La mayoría de las veces, lo que dice es cierto, o al menos está tan bien escrito que parece totalmente cierto. Pero también suele cometer grandes errores. Así que no hay que fiarse ciegamente de él”. Por desgracia, no todo el mundo tiene el espíritu crítico necesario para cuestionar lo que dice la máquina, sobre todo cuando lo manifiesta claramente, sin errores ortográficos ni gramaticales.

“Otro peligro que veo es que quita responsabilidad a la gente”, prosigue el profesor. “Lo utilizarán incluso las empresas. Pero ¿quién es la fuente? ¿Quién es responsable si la información que proporciona plantea problemas? No está nada claro”.

¿Teme Guerraoui que la IA sustituya a periodistas, escritores e incluso al profesorado, como se dice? Todavía no, pero cree que “algunos trabajos pueden cambiar. El profesor o el periodista se encargará de verificar y cotejar las fuentes, porque la máquina va a ofrecer un texto que parecerá verosímil y que la mayoría de las veces será cierto. Pero habrá que comprobarlo todo”.

Hay que regularlo con urgencia

“El gran desafío actual para la IA no es el rendimiento, sino la gobernanza, la regulación y la necesidad de fiabilidad”, argumenta El Mahdi El Mhamdi, antiguo estudiante de doctorado en la EPFL y en la actualidad profesor de Matemáticas y Ciencia de Datos en la Escuela Politécnica de París.  

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso». El Mahdi El Mhamdi, Escuela Politécnica de Paris

En 2019 publicó —también junto a Lê Nguyên Hoang— Le fabuleux chantierEnlace externo – rendre l’intelligence artificielle robustement bénéfique [La fabulosa obra en construcción: hacer que la inteligencia artificial sea fuertemente beneficiosa] un libro que aborda los peligros de los llamados algoritmos de recomendación, que permiten a las redes sociales proponernos contenidos que supuestamente nos interesan en función de nuestro perfil. El Mhamdi no esperó a ChatGPT para denunciar el impacto de estos algoritmos en “el caos informativo de nuestras sociedades”.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso. Cuando veo el entusiasmo sin reservas por esta herramienta, incluso entre colegas, me pregunto si vivimos en el mismo planeta”, advierte el profesor. Recuerda los escándalos de recopilación masiva de datos de Cambridge Analytica o la proliferación de programas espía —como Pegasus— que pueden instalarse secretamente en los teléfonos móviles.

El Mhamdi admite que ChatGPT puede ser una buena herramienta de trabajo, pero señala que la ciencia que ha permitido su creación “es el resultado de un cúmulo de lo que han publicado miles de investigadores en la última década, y también de colosales recursos de ingeniería, así como del trabajo muy cuestionado éticamente de pequeñas manos mal pagadas en Kenia” (ver el recuadro más abajo).

Al final, para él, “el verdadero genio de OpenAI no está en la ciencia que hay detrás de ChatGPT, sino en el marketing, delegado en un público entusiasmado con el artilugio”. Un público y unos medios de comunicación, cabría añadir, volviendo al principio de este artículo. Es cierto, todo el mundo habla de ello, pero ¿ha visto usted alguna vez un anuncio de ChatGPT?

ChatGPT no distingue entre la descripción de un vuelo de golondrinas sobre un campo de tulipanes y la violación de un niño por su padre. Para esta herramienta, estas situaciones solo son información; como para Terminator, el dolor. Así que quienes diseñan la IA deben enseñar a la máquina —que no tiene valores, conciencia ni moral— a reconocer qué es admisible y qué no lo es. Para ello, hay que proporcionarle ejemplos de lo más despreciable que el ser humano es capaz de hacer para que pueda reconocerlo y eliminarlo.

En enero de 2023, una investigaciónEnlace externo de la revista Time reveló cómo había externalizado este problema OpenAI. A partir de noviembre de 2021, envió a la empresa californiana SamaEnlace externo decenas de miles de extractos de textos tóxicos encontrados en internet, que hizo deconstruir sobre todo en su sucursal de Nairobi, Kenia. Allí, unas 30 personas tuvieron que pasar nueve horas diarias leyendo y etiquetando violaciones, torturas, actos de zoofilia y de pedofilia, descritos con precisión clínica. Y todo ello por apenas dos dólares la hora.

Como de semejante avalancha de horror nadie sale indemne, Sama —que tiene una etiqueta “ética”— a estas personas que han estado trabajando en la sombra les ha ofrecido apoyo psicológico. Pero, según antiguos empleados que accedieron a hablar con Time bajo el anonimato, en absoluto era suficiente. Desde entonces se ha rescindido el contrato entre OpenAI y Sama.

ChatGPT, por su parte, no ha dejado constancia de esta página poco gloriosa de su diseño. Se pregunte cómo se pregunte, todas las respuestas giran en torno a los famosos “lo siento, pero como modelo de lenguaje, no tengo acceso…, no soy capaz…, no puedo proporcionar información…, no tengo la capacidad…”.

Texto adaptado del francés por Lupe Calvo

Explicativo sobre ChatGPT en nuestra cuenta en Instagram:



Los preferidos del público

Los más discutidos

En cumplimiento de los estándares JTI

Mostrar más: SWI swissinfo.ch, certificado por la JTI

Puede encontrar todos nuestros debates aquí y participar en las discusiones.

Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.

SWI swissinfo.ch - unidad empresarial de la sociedad suiza de radio y televisión SRG SSR

SWI swissinfo.ch - unidad empresarial de la sociedad suiza de radio y televisión SRG SSR