[go: up one dir, main page]

0% encontró este documento útil (0 votos)
22 vistas12 páginas

Niñxs Jugando Con La Bomba Unidad 5

Cargado por

araidan
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
22 vistas12 páginas

Niñxs Jugando Con La Bomba Unidad 5

Cargado por

araidan
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 12

INTELIGENCIA ARTIFICIAL

NIÑXS JUGANDO CON UNA BOMBA

“Atravesamos días comparables con la crisis de los misiles de 1962”, escribe Flavia Costa
mientras lee entre líneas la carta abierta sobre IA. ¿De dónde viene el peligro? ¿Qué
podría hacerse en seis meses? Entre la potencia y la amenaza de la superinteligencia
artificial, el Chat GPT-5 y los algoritmos de red neuronal, cuáles son los desafíos políticos
y sociales que llegan. La emergencia de otras lenguas, las narrativas de un nuevo
individuo-máquina y las capacidades irremplazables de quienes (¡todavía!) somos
cuerpo, y demasiado humanos.

Por: Flavia Costa

Arte: Jael Díaz Vila

Tras un pequeño pero curioso –¡demasiado humano!— retraso, la semana pasada se


difundió por el mundo entero una carta abierta que alerta enérgicamente sobre los
riesgos de la inteligencia artificial (IA). Fue firmada por 1125 científicos, académicos,
ejecutivos y expertos. Entre ellos, el CEO de SpaceX, Tesla y Twitter, Elon Musk; el
cofundador de Apple, Steve Wozniak; el historiador Yuval Harari y el físico y biólogo
molecular John Hopfield, inventor en 1982 de las redes neuronales asociativas. En
cuestión de horas ya habían sumado su firma más de 50 mil personas.

La carta pide suspender “de inmediato, durante al menos seis meses, el entrenamiento
de los sistemas de IA más potentes que GPT-4 (incluido el GPT-5 que se está entrenando
actualmente)”. La pausa permitiría evaluar los riesgos que estas tecnologías conllevan y
preparar mejor, desde los puntos de vista jurídico, político y cultural, a las sociedades y
los Estados para afrontarlos.

El texto advierte que los modelos de lenguaje como GPT-4 ya pueden competir con los
humanos en una gama cada vez mayor de tareas y podrían usarse para automatizar
puestos de trabajo, para difundir propaganda y falsedades, y poner en jaque la
democracia. También plantea, en una perspectiva lejana, que los sistemas de IA podrían
reemplazar a los humanos y hasta hacernos “perder el control de nuestra civilización”.
La carta es enfática al señalar que las soluciones a estos potenciales escenarios “no
deben delegarse en líderes tecnológicos no elegidos”. Pero, ¿de dónde viene el peligro,
concretamente? ¿Qué podría hacerse en seis meses?

“Como niños jugando con una bomba”

Las primeras líneas son muy significativas: “Los sistemas de IA con inteligencia humana-
competitiva pueden plantear riesgos profundos para la sociedad y la humanidad. La IA
avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y
debe planificarse y administrarse con el cuidado y los recursos correspondientes.
Desafortunadamente, este nivel de planificación y gestión no está ocurriendo.” Y casi
inmediatamente después: “Los sistemas de IA contemporáneos se están volviendo
competitivos para los humanos en tareas generales”. Retengamos tres puntos hasta
aquí.

1. El adjetivo “competitiva”

Va acompañado de una nota al pie. Remite, entre otros, al libro Superinteligencia, de


2014, del filósofo sueco Nick Böstrom, fundador de la Asociación Transhumanista
Mundial y director del Instituto Futuro de la Humanidad de la Universidad de Oxford.

Böstrom —a quien nadie podría confundir con un crítico de la tecnología— analiza en


ese libro las posibilidades de que la humanidad alcance en las próximas décadas la
“Superinteligencia artificial”. Y asegura que es justo el rasgo competitivo —es decir, la
búsqueda de una “ventaja decisiva”, propia del código técnico capitalista que orienta
todos los desarrollos actuales de IA– lo que necesitamos reconfigurar urgentemente si
queremos “lograr un resultado beneficioso con el que pudiéramos sobrevivir”.

Sobre el final del libro, Böstrom sostiene que frente a la IA somos “como niños pequeños
jugando con una bomba. Tal es el desajuste entre el poder de nuestro juguete y la
inmadurez de nuestra conducta. La Superinteligencia es un desafío para el que no
estamos preparados ahora y no lo estaremos por mucho tiempo. (...) Para un niño con
una bomba a punto de detonar en sus manos, algo sensato sería dejarla con cuidado en
el suelo, salir rápidamente de la habitación, y ponerse en contacto con el adulto más
cercano. [¿Es esto lo que estarían proponiendo los firmantes de la carta?] Sin embargo,
lo que tenemos aquí no es un niño, sino muchos (...). Algún pequeño idiota
inevitablemente pulsará el botón de encendido sólo para ver qué pasa.”

En síntesis: Böstrom llama la atención acerca del gap que existe entre la velocidad de
desarrollo de las tecnologías y nuestra capacidad humana de limitar los riesgos del uso
descontrolado de una inteligencia artificial, es decir, creada por humanos (y en este
sentido, perfectamente humana; incluso superhumana, ya que condensa siglos y siglos
de desarrollos humanos altamente sofisticados). Pero que comienza a ser capaz de
hacer cosas que ningún humano o conjunto de humanos concretos son capaces de
comprender de forma cabal. Funciona, pero no tenemos del todo claro cómo o por qué
—esta es una de las acepciones actuales del término “cajanegrización”: operar un
sistema a partir de un input y un output, sin conocer del todo qué es o cómo funciona el
“estado interno” o la “caja negra” que procesa ese input—. Esto es lo que sucede hoy
en ciertos desarrollos de la biología sintética y sucedía en las prácticas de hibridación de
especies vegetales y animales que se realizaban en el siglo XIX.
En cierto sentido, como veremos en seguida, se parece al tipo de dilema que podríamos
formularnos frente al lenguaje natural. Se suele repetir mucho últimamente —
parafraseando al filósofo francés Gilles Deleuze— que “nadie sabe lo que puede un
cuerpo”. Pues bien; podríamos decir perfectamente también: “nadie sabe lo que puede
el castellano”. O “el chino mandarín”. O “el inglés”. En efecto, esa idea está presupuesta
en toda nuestra confianza en la poesía o en la literatura como sistemas culturales
robustos, con pasado, presente y —confiamos, con aceptable razón— futuro. No
confiamos única, ni acaso principalmente, en la capacidad de tal o cual persona, nacida
o por nacer; sino que confiamos, sobre todo, en la potencia de la lengua castellana, o de
la francesa, o de la portuguesa, para valerse de cuerpos (¿o de otras cosas maquínicas,
quizá?) para escribir.

2. ¿GPT-5?

Lo segundo que debemos retener del texto es la afirmación entre paréntesis de que el
GPT-5 “se está entrenando actualmente”. Algo que la vocera de OpenAI, Hannah Wong,
desmintió en estos días, aunque es razonable suponer que sí está ocurriendo. ¿Por qué
no lo estarían haciendo si GPT-4, presentado en marzo y al que vienen probando los
usuarios pagos de ChatGPT Plus, es un éxito rotundo –a pesar de las dudas y
controversias que suscitó y también por ellas?

El propio director ejecutivo de OpenAI, Sam Altman, admitió en marzo estar "un poco
asustado" con el desarrollo de GPT-4. En una entrevista con Rebecca Jarvis de ABC
News señaló que particularmente le inquieta “que estos modelos puedan usarse para la
desinformación a gran escala", ya que ahora que estos sistemas “están mejorando en la
escritura de código de computadora, podrían usarse para ataques cibernéticos
ofensivos".

3. La AGI

La carta afirma que estamos ya muy cerca de la inteligencia artificial general, o AGI (“los
sistemas de IA contemporáneos se están volviendo competitivos para los humanos en
tareas generales”). Esto venía diciéndose hace tiempo. Y es de hecho lo primero que uno
lee cuando entra al sitio web de OpenAI:[1] “Nuestra misión es garantizar que la
inteligencia artificial general (sistemas de IA que generalmente son más inteligentes que
los humanos) beneficie a toda la humanidad”. Y si bien no podemos razonablemente
confiar en que busquen alcanzar esa misión benéfica, sí podemos estar seguros de que
quieren lograr la AGI.

Por otro lado, coincide con la información que se filtró el 27 de marzo y, como buen
espectro, recorrió el mundo, aterrorizándolo. Lo hizo a través de un tuit del
desarrollador tecnológico Siqi Chen, matemático de la Universidad de California, que
decía:

Me han dicho que GPT-5 está programado para completar su entrenamiento este
diciembre y que OpenAI espera que logre AGI [Inteligencia Artificial General].
Lo que significa que todos debatiremos acaloradamente sobre si realmente logró AGI.

Lo que significa que lo hará.

(A mí me llegó poco después, desde Chile. Nunca había oído hablar de Siqi Chen.)

El espectro de un poder inhumano

Para entender de qué se trata la AGI, recordemos la tesis de las tres fases de la IA que
popularizó el inventor, escritor y empresario Ray Kurzweil —desde 2012 el director de
ingeniería de Google para IA— en su libro La Singularidad está cerca, de 2005. Allí
Kurzweil se refería a la posibilidad —por ahora hipotética, pero en la que confían
muchos tecnólogos influyentes— , de que en las próximas décadas la Inteligencia
Artificial (IA) tal como la conocemos hoy hará, ella también —como tantas industrias en
el Tecnoceno— su salto de escala, su “Gran Aceleración”. Que pasará de ser la
Inteligencia Artificial Estrecha (ANI, por Artificial Narrow Intelligence) que conocemos
hoy —es decir, una inteligencia artificial que se especializa en una tarea limitada, como
jugar al Go, hacer transacciones financieras de alta frecuencia u orientarnos en una
ciudad— a ser una Inteligencia Artificial General, o AGI (Artificial General Intelligence):
una inteligencia artificial que es al menos tan desarrollada intelectualmente como un
ser humano, en muy diferentes ámbitos, y que puede establecer relaciones entre esos
ámbitos (esto es lo que, según Siqi Chen, estaría por hacer GPT-5 en diciembre).

Y luego seguiría desarrollándose hasta derivar en una Superinteligencia Artificial, o ASI:


una inteligencia artificial que es mucho más veloz y cualitativamente mucho más
inteligente que cualquier humano, e incluso que la humanidad en su conjunto, en todos
los ámbitos. Kurzweil llama a este punto de inflexión la Singularidad, porque cree que
es imposible predecir cómo puede “pensar” un ente semejante. Y mucho menos
figurarse cómo se desarrollará el futuro humano después de su emergencia. Quienes
piensan como él aseguran que una vez que estas máquinas existan, poseerán una
inteligencia que será tan incomprensible para nosotros que ni siquiera podemos intuir
cómo se alterarían nuestras experiencias de vida. Nos encontraríamos una vez más,
como especie, ante un poder eminentemente inhumano, es decir, con valores e
intereses, no necesariamente incompatibles, pero diferentes de los nuestros, como eran
los de los dioses paganos, los de la naturaleza o el Cosmos.

Es frente a semejante escenario que Nick Böstrom escribió su libro en 2014. Para él, lo
más probable es que si las IA se siguen entrenando con el código técnico competitivo
que existe hoy —donde los laboratorios compiten entre sí por ser los primeros, donde
las estructuras y los contenidos son securitizados y propietarios—, la primera
computadora que llegara a ASI entendería inmediatamente que su ventaja estratégica
consiste en ser el único sistema ASI del mundo. Y en el caso de un despegue rápido, si
un primer laboratorio alcanzara ASI incluso solo unos días antes que su principal
competidor, estaría lo suficientemente adelantado en inteligencia para suprimir de
manera efectiva y permanente a todos los competidores. Böstrom afirma que esta
ventaja estratégica decisiva permitiría que el primer sistema ASI del mundo se
convirtiera en lo que se llama un singleton (Böstrom dice que prefiere no utilizar el
término Singularidad, pero usa otro parecido). Esto es: una ASI capaz de gobernar el
mundo a su antojo. Llevarnos a la inmortalidad o borrarnos de la existencia.

Superinteligencia Artificial, una IA mucho más veloz y cualitativamente mucho más


inteligente que cualquier humano, e incluso que la humanidad en su conjunto, en
todos los ámbitos.
Claro que no todos piensan que esto es posible. Los escépticos, como el cofundador de
Microsoft Paul Allen o Mitch Kapor —fundador de Lotus 1, 2 y 3 y cofundador de
Mozilla— sostenían ya la década pasada que pensadores como Kurzweil están
subestimando la magnitud del desafío. Según ellos, la “asombrosa complejidad de la
cognición humana” es el verdadero asunto. Porque si no se comprende científicamente
y en profundidad la cognición, es imposible crear el software que pudiera desencadenar
la Singularidad. Y en lugar del avance cada vez más acelerado que imagina Kurzweil,
Allen considera que hay un constante “freno de complejidad” que hace que una vez que
se comienza a investigar un sistema complejo como el que es capaz de desencadenar un
pensamiento o una acción social suficientemente sofisticada, las cosas se vuelven más y
más difíciles, y la carrera de los “rendimientos acelerados” se frena indefectiblemente.

Redes, bots y sonetos

Es esa complejidad la que se propusieron afrontar —entre otros— el informático


británico Geoffrey Hinton, el franco-estadunidense Yann LeCun y, más recientemente,
el ruso-israelí Ilya Sutskever, jefe científico y cofundador de OpenAI. Siguiendo una
antigua intuición de Hinton acerca de que para “aprender” no eran necesario solo
razonamientos lógico-matemáticos, sino también asociaciones complejas, desarrollaron
lo que hoy se conoce como redes neuronales multicapa y redes neuronales
convolucionales, capaces de aprender por sí solas (lo que solemos llamar aprendizaje
automático o machine learning) a través algoritmos de propagación hacia atrás.

Tales desarrollos están en la base de programas como ChatGPT. Estos chatbots son
modelos de lenguaje de gran tamaño (LLM, por large language model), ajustados con
distintas técnicas de aprendizaje automático. ChatGPT funcionaba inicialmente sobre la
base del modelo predictivo de lenguaje GPT-3, introducido en 2020, y se perfeccionó
sobre GPT-3.5. Un mes después de su lanzamiento en noviembre pasado, OpenAI
calculaba que ChatGPT ya tenía más de un millón de usuarios. Hace pocas semanas, el
14 de marzo, la empresa lanzó la versión que funciona sobre GPT-4, que como decíamos
está disponible para usuarios Plus, es decir, los que pagan extra (la gratuita es la versión
anterior). Es esta nueva versión la que hizo estallar el asombro y el desconcierto masivo
por su gran performance.

Una Superinteligencia Artificial es capaz de gobernar el mundo a su antojo. Llevarnos


a la inmortalidad o borrarnos de la existencia.
GPT es el acrónimo de Generative Pre-trained Transformer. “Transformer” es el tipo de
algoritmo que actúa como base en el sistema: una red neuronal que aprende contexto
—y por ende, significado— siguiendo relaciones en datos secuenciales, como las
palabras de esta oración. Se describieron por primera vez en un documento de 2017 de
Google y están impulsando un cambio de paradigma en la IA. Entre las cosas que pueden
hacer los transformers están la traducción de texto y habla casi en tiempo real, la
asistencia a investigadores humanos en la comprensión de las cadenas de genes en el
ADN y los aminoácidos en proteínas para acelerar el diseño de fármacos, y la detección
de tendencias y anomalías para prevenir fraudes, optimizar la producción en diferentes
industrias o hacer recomendaciones en línea. Por su parte, “pre-entrenado” quiere decir
que ese algoritmo es entrenado con un corpus masivo de textos, donde se le muestran
patrones y relaciones subyacentes en el lenguaje. Y “generativo” quiere decir que el
“bicho” puede crear nuevos contenidos (nuevas relaciones, para las que no fue
deliberadamente entrenado) a partir de esta base de conocimiento.

En síntesis, un modelo de generación de actividades lingüísticas. Una meta-tecnología.


No realiza “una” actividad humana (redactar canciones con rima, responder preguntas
de pruebas académicas exigentes, buscar información ordenada: ya serían tres), sino
muchas más. Una inteligencia artificial bastante más genérica que la que solo juega
ajedrez. Por cierto también comete muchos errores triviales, contiene sesgos y, como
sus predecesores, a veces "alucina" –en el lenguaje de los videojuegos diríamos que
tiene glitch– brindando información sin sentido. Pero su performance va a mejorar.

El periodista y escritor del New York Times Thomas Friedman contaba el 21 de marzo su
enorme sorpresa cuando Craig Mundie, ex director de investigación y estrategia de
Microsoft, le mostró su chatbot basado en GPT-4. “Tienes que entender”, le advirtió
Craig antes de comenzar su demostración, “esto va a cambiar todo acerca de cómo
hacemos todo. Creo que representa el mayor invento de la humanidad hasta la fecha.
Es cualitativamente diferente, y será transformador”.

Lo que sigue comentándole Mundie a Friedman confirma la tesis de la carta: “Los


módulos de lenguajes grandes como ChatGPT aumentarán constantemente sus
capacidades —agregó Craig— y nos llevarán ‘hacia una forma de inteligencia artificial
general’, brindando eficiencias en operaciones, ideas, descubrimientos y conocimientos
que nunca antes habían sido alcanzables en todos los dominios”.
Después Mundie le hizo una demostración y, según Friedman, lo que vio le hizo entender
que el ex asesor de Microsoft se estaba quedando corto. Primero, le pidió a GPT-4 que
resumiera el museo donde estaban, Planet Word, y su misión en 400 palabras. “Lo hizo
perfectamente, en unos pocos segundos —escribe Friedman—. Luego le pidió que
hiciera lo mismo en 200 palabras. Otros pocos segundos. Luego le pidió que hiciera lo
mismo en árabe. Con la misma rapidez. Luego en mandarín. Dos segundos más. Luego
en inglés nuevamente, pero en la forma de un soneto de Shakespeare. Unos segundos
más. Luego, Craig le pidió a GPT-4 que escribiera la misma descripción en un verso
abecedario, donde la primera línea comienza con la letra A, la segunda con B y así
sucesivamente a través del alfabeto. Lo hizo con una creatividad asombrosa.” [Pueden
ver el poema abecedario en inglés en las páginas del NYT].

Finalmente Friedman combina así sus propias ideas con las de Craig Mundie: “La última
vez que inventamos una tecnología tan poderosa, creamos energía nuclear: podría
usarse para iluminar todo tu país o destruir todo el planeta. Pero lo que pasa con la
energía nuclear es que fue desarrollada por los gobiernos, que de manera colectiva
crearon un sistema de controles para frenar su proliferación a los malos actores, no
perfectamente pero no mal. La IA, por el contrario, está siendo iniciada por empresas
privadas con fines de lucro. La pregunta que debemos hacernos es cómo gobernamos
un país y un mundo, donde estas tecnologías de IA pueden ser armas o herramientas en
todos los dominios, mientras están controladas por empresas privadas y su poder se
acelera cada día”.

Dos, tres, muchos chatbots

ChatGPT no es el primer producto de su tipo: desde que se conoció GPT-3, se lanzaron


programas como GLaM, LaMDA, Gopher, InstructGPT y Megatron-Turing NLG, entre
varios otros, que buscaban realizar tareas, como la comprensión lectora, la verificación
de hechos y la identificación de lenguaje tóxico.

Y hasta podría no ser el más interesante. En una entrevista reciente para CBS News,
Geoff Hinton (a quien mencionamos antes en relación con las redes neuronales)
comentó: “He usado muchas cosas que vinieron antes, por lo cual éste en particular no
me parece tan asombroso. (...) GPT-2, una versión anterior, sí me asombró. Pero me
asombró todavía más un programa de Google que sabe explicar por qué una broma es
divertida. No lo logra en todos los casos, pero sí en muchos. Y eso sí es algo raro”. Se
refiere a Pathways Language Model, o PaLM, de 2022.

De allí que la carta llega cuando los sistemas de IA dan saltos cada vez más audaces e
impresionantes. También cuando Elon Musk, que se retiró de OpenAI en 2019, espera
poder competir con ella (es un argumento que se viene escuchando en estos días). Pero
la carta la firman más de 1120 científicos y expertos, además de Musk: ¿por qué lo
harían?

Sus capacidades han despertado, así como un entusiasmo considerable, una gran
cantidad de preocupación en el ámbito de la educación (con preguntas algo superficiales
como: ¿cómo vamos a evaluar ahora?, y otras más importantes, como: ¿qué
conocimientos van a necesitar los niños de aquí a 15 años?), en la industria de la
ciberseguridad, en las industrias del conocimiento e incluso en la política.

Con respecto al primer tipo de problema, ya se han dado algunas respuestas que es de
esperar se volverán típicas, pero insuficientes, en los próximos meses. Una: a partir del
4 de enero de este año, el Departamento de Educación de la ciudad de Nueva York ha
restringido el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas
públicas. Y dos: en febrero, la Universidad de Hong Kong prohibió usar ChatGPT u otras
herramientas de IA en todas las clases, tareas y evaluaciones de la universidad.

En cuanto a la seguridad, en marzo un fallo del ChatGPT permitió a algunos usuarios ver
los títulos de las conversaciones de otros usuarios. Poco después de que se corrigiera
ese episodio, los usuarios no pudieron ver su historial de conversaciones. Informes
posteriores mostraron que el fallo era mucho más grave de lo que se había creído en un
principio, y OpenAI informó de que se había filtrado "nombre y apellido, dirección de
correo electrónico, dirección de pago, los cuatro últimos dígitos (únicamente) de un
número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito" de los
usuarios. En medio de un clima de zozobra, el 31 de marzo Italia anunció que a partir de
ese mismo día bloquearía el acceso de los usuarios de su país al ChatGPT, con lo que se
convirtió en el primer país occidental en prohibir ese programa de IA. El organismo
gubernamental para la protección de datos anunció que existen preocupaciones
relativas a la privacidad y dispuso una investigación “inmediata" relacionada con la
seguridad de los datos personales.

Por otro lado, el 26 de marzo, analistas de Goldman Sachs destacaron en el informe


titulado “Los grandes efectos potenciales de la inteligencia artificial en el crecimiento
económico” que el desarrollo de la IA generativa podría tener “grandes efectos
macroeconómicos” y un "impacto significativo" en el mercado laboral. Sólo en los
EE.UU. y en Europa, “la IA generativa podría sustituir hasta una cuarta parte del trabajo
actual”, agrega el informe. Y a nivel mundial provocar la automatización de unos 300
millones de trabajos a tiempo completo.

Posiblemente sea en la política y en la propia sociedad donde las tareas se vuelvan más
urgentes. La carta menciona las más imperiosas. En los niveles global y estatal, crear
marcos legales (“sistemas sólidos de gobierno de la IA”); conformar autoridades
reguladoras a la altura del problema, que no es principalmente técnico, sino social,
cultural y político. Es decir, esas autoridades deberán ser no principalmente ingenieros,
economistas o matemáticos, sino expertos en mediaciones, en políticas públicas, en
seguridad y anticipación de riesgos, en sistemas y sociedades complejos. A estas
autoridades hay que, primero, diseñarlas; esto es, formarlas con trayectos de educación
transversal (que deberán incluir a narradores y artistas, capaces de imaginar, figurar
concretamente y con narrativas sólidas, escenarios futuros. Siendo cuerpos se piensa
con imágenes, sabemos desde Aristóteles, y confirman todos los creativos).
Crear organismos técnicos y expertos capaces de supervisión y seguimiento de estos
enormes conjuntos técnicos. Y para nuestro país y nuestra región, reorientar las
estrategias de educación y científico-tecnológica, no sólo hacia la “inclusión digital”, sino
también hacia la expansión y fortalecimiento de la soberanía tecnológica en IA, así como
reorientar las formaciones superiores hacia las nuevas experticias que serán
importantes en esta nueva y desconcertante etapa.

Atravesamos días comparables con la crisis de los misiles de 1962. Pero no sería fácil
saber quiénes son los oponentes. ¿Las corporaciones? ¿EE.UU. y China? ¿Los humanos
y la IA?
Por otro lado, desarrollar normativas y estrategias de seguridad y gestión de riesgo, que
ya demostraron ser eficaces en la prevención de accidentes en las llamadas “industrias
ultraseguras”, como la nuclear o la aeronáutica. E incluso en las industrias no tan
seguras, como las químicas, tal como demostraron las directivas Seveso 1, 2 y 3, emitidas
después de diferentes accidentes ocurridos en Italia y Francia entre 1982 y 2001. Hoy,
sobre todo después de la pandemia, estas estrategias se han convertido en una
prioridad en expansión en toda la industria, en áreas tan diversas como la logística
multimodal o el petróleo.

Para todo esto, seis meses parece muy poco tiempo (claro que, si lo que enfrentamos
es una escalada de aceleración tecnológica, el tiempo nunca será suficiente). La carta
menciona algunos casos donde se llegó a acuerdos de autolimitación en tecnologías con
efectos potencialmente catastróficos en la sociedad, como “la clonación humana, la
modificación de la línea germinal humana, la investigación de ganancia de función y la
eugenesia”. También se llegaron a acuerdos de desarme nuclear. No son perfectos,
como dice Friedman, pero tampoco imposibles.

Y al menos la carta provocó algo fundamental, que es causar impacto global. Un efecto
de tensión inédito en el campo de la informática al menos desde el caso del Y2K.

Cuando me reenviaron por whatsapp el tuit de Siqi Chen, el comentario siguiente decía:
“De esta semana se va a hablar mucho por los próximos 20 años”. Y de hecho, se la
comparó con el episodio de la “crisis de los misiles”, de 1962, cuando EE.UU. descubrió
que había bases de misiles nucleares soviéticos en la isla de Cuba. Fue una de las
mayores crisis de la Guerra Fría, cuando –opinan numerosos expertos– más cerca se
estuvo de una guerra nuclear.

La comparación parece referir más al clima de zozobra que a un peligro letal concreto.
Por un lado no sería fácil saber quiénes son aquí los oponentes: ¿las corporaciones?
¿EE.UU. y China, o de manera más eufemística “Occidente” y “Oriente”? ¿O los humanos
y la IA? Por otro lado, el riesgo no parece ser una muerte “rápida y segura”, sino la
combinación –absolutamente indeseable, pero mucho más delicada y compleja de
tratar que un arma letal, porque es un conflicto entre sistemas sociotécnicos y políticos
complejos– entre una desigualdad cada vez más desequilibrada; una crisis generalizada
del empleo en un contexto, no de escasez, sino de abundancia; y de un potencial giro
autoritario de los modos de gobierno.
La innovación que viene, la que aún resta diseñar, es la innovación social y política.
Una que nos permita orientar el desarrollo, la integración y las formas de apropiación
colaborativa de estas tecnologías de una manera realmente democrática.
La innovación que viene, la que aún resta diseñar, es la innovación social y política. Una
que nos permita orientar el desarrollo, la integración y las formas de apropiación
colaborativa de estas tecnologías de una manera realmente democrática. Lo que
requiere un trabajo transdisciplinar y meta-tecnológico a la altura del desafío. Un
desafío que se parece bastante a la emergencia, o la invención, no de una lengua, sino
de la lengua, la caída en el lenguaje. Pero por parte de máquinas que no son
equivalentes a los humanos (no estamos frente a un individuo maquínico del mismo
modo en que estamos frente a un individuo humano), sino a seres que, aun sin tener
intenciones ni sensaciones físicas, son capaces de combinar sonidos, imágenes, grafos y
sus traducciones o transposiciones a diferente soportes audiovisuales e incluso a otras
materialidades.

Y acaso llegarán a comprender el mundo. Ilya Sutskever dice: “A medida que nuestros
modelos generativos se vuelvan extraordinariamente buenos, tendrán un sorprendente
grado de comprensión del mundo y muchas de sus sutilezas. Es el mundo visto a través
de la lente del texto. Intentan aprender más y más sobre el mundo a través de una
proyección del mundo en el espacio del texto, tal como lo expresan los seres humanos
en Internet. Pero aún así, este texto ya expresa el mundo”.

También podría gustarte