Inteligencia artificial, regulación y cambios inevitables.
Hace unas semanas Sam Altman, CEO de OpenAI, se presentó ante una comisión del congreso de los Estados Unidos. El tema era el desarrollo de la inteligencia artificial y sus riesgos. El encuentro fue cordial y tuvo varios aspectos curiosos.
El principal punto para este artículo es el hecho de que varios legisladores manifestaron su sorpresa porque Altman sostenía ante ellos que la actividad debía regularse. ¿Acaso el ejecutivo se había vuelto loco?
La versión corta es que no se volvió loco, sino que hizo una lectura muy inteligente de la situación y perfiló una estrategia a futuro.
Resistirse es fútil
Lo primero que tenemos que tener en cuenta es que el cambio que nos traen las IA es inevitable. El impacto en algunas áreas, particularmente en la ciencia y la industria tecnológica ya puede observarse.
Hay que advertir que lejos de los escenarios apocalípticos y pesimistas que nos ofrecen muchos futurólogos, las IA han ofrecido hasta el momento muchos más beneficios que problemas. Esto no quiere decir que no haya temas a resolver, pero sí que es innegable que el lado positivo es enorme y muy probablemente supere largamente las contras.
Los beneficios son obvios para cualquiera que estudie un poco el tema. Esto incluye a los gobiernos, sus legisladores y reguladores. Ellos también son conscientes de que el genio nunca puede meterse de nuevo en la botella, pero esperan poder guiarlo.
Los Borg de Viaje a las Estrellas dirían que resistirse es fútil. Nuestra vida no será la misma con la llegada de las IA, pero puede ser diferente de muchas maneras.
La lección de la industria cripto
Por su parte, creo que Altman entiende que resistirse a una futura regulación también es fútil. Es probable que lo ocurrido con las criptomonedas haya influido en su postura.
El crecimiento de las criptomonedas en los últimos años fue uno de los fenómenos más disruptivos en la economía. Sin embargo, al menos hasta el momento, su desarrollo ha sido impresionante pero marginal y parece haberse estancado.
Podemos echarle algunas culpas a los gobiernos, al celo por el sistema financiero tradicional. Pero hay que reconocer que la industria fue muy dañada por una serie de escándalos y malas prácticas, incluyendo la caída de varias empresas clave. Para una importante parte de la población las criptomonedas han quedado asociadas a estos proyectos mal llevados.
Como resultado de lo ocurrido y la mala opinión pública los gobiernos han implementado regulaciones duras sobre la industria.
El resultado es un doble impacto negativo.
Acompañar y guiar
Es inevitable que durante esta etapa de desarrollo de las IA se produzcan malos ejemplos. Desde problemas de funcionamiento y seguridad hasta el uso malicioso de la tecnología. En este sentido la posición de Altman es algo así como “nosotros queremos hacer las cosas bien, encontremos juntos los estándares y buenas prácticas”.
Al acompañar el establecimiento de una regulación, OpenAI también se convierte en un punto de referencia para los reguladores y para el mercado. Durante el encuentro con los legisladores Altman fue consultado sobre qué aspectos deberían cuidarse para evitar los posibles efectos nocivos. Básicamente: ¿En qué deberíamos fijarnos para regular la industria?
Por supuesto, el encuentro también incluyó expertos independientes. Es poco probable que en el futuro los legisladores solo hagan lo que OpenAI les recomienda. Pero estar en la mesa de discusión es importante. Ser una voz guía es valioso.
Este papel le permite a empresas tales como OpenAI asegurarse que malos actores no perjudiquen a la industria y que legisladores desorientados no impongan restricciones inefectivas y perjudiciales.
Altman y Musk
Altman cuenta con una ventaja, porque nunca ha negado que las IA suponen riesgos y desafíos. Aunque siempre ha intentado moderar sus planteamientos. Es en parte uno de los jinetes de la nueva tecnología y el que avisa que viene en camino y puede causar problemas.
Elon, fue parte del equipo fundador de OpenAI y, según sus propias declaraciones invirtió más de U$S 50 millones. Luego se alejó por diferencias en la conducción de la empresa. Su postura respecto a los riesgos de las IA es mucho más dramática. Señala que en el largo plazo las IA podrían volverse autónomas y controlar el mundo.
Quizás algo más cerca de la realidad son sus advertencias sobre el posible uso para manipular a las personas por parte de la clase política.
Musk reconoce que el potencial para hacer el bien de las IA es enorme. No está para nada opuesto a su desarrollo. Sin embargo cree que debería priorizarse el avance en aspectos de seguridad y aunque esto pueda retrasar un poco el proceso, quizás sea algo bueno.
Esta idea se plasmo en una carta abierta de la Future of Life Institute que fue firmada por Musk, Wozniak y otras figuras de referencia del universo tecnológico, además de académicos destacados.
Altman no cree que esto sea posible.
La carrera ya empezó
El CEO de OpenAI no está falto de razones. La carrera para desarrollar y extender las IA a cada vez más ámbitos de nuestras vidas ya comenzó, y no solo participa Estados Unidos. Varias empresas de China han puesto el pedal a fondo, y es poco probable que se detengan cuando surjan un par de problemas éticos.
Por su parte, la Unión Europea se ha apurado para establecer un marco regulatorio que sirva como contención para prevenir malas prácticas, y como terreno firme sobre el cual la industria pueda crecer.
En este contexto tanto las empresas desarrolladoras como los legisladores estadounidenses tienen un objetivo en común: no quedarse atrás. De hecho la intención es, como suele ocurrir, convertirse en líderes. Muy probablemente mucho más cerca del modelo europeo que del chino.
Una cuestión de modelos
Otro aspecto clave a considerar es el modelo de negocio. Una de las preocupaciones de los legisladores es el manejo de los datos personales de los usuarios y el público en general. OpenAI tiene la ventaja de tener un sistema por suscripción. Aunque ha utilizado datos de sus usuarios para entrenar a ChatGPT puede fácilmente comprometerse a no utilizar dicha información.
Dos de sus rivales directos, Google y Meta, no gozan de esta facilidad. En ambos casos las empresas se sostienen por la venta de publicidad, lo que supone el uso de datos para ofrecer un contexto preciso para la colocación de los avisos. Las IA deberían ayudar en esta tarea.
Pero las IA han demostrado ser poco confiables a la hora de mantener los secretos. Hay quienes han descubierto que pueden engañarlas, hacerles creer que son desarrolladores para que ignoren barreras de seguridad y suministren datos que no deberían.
Por todo lo dicho, es probable que le regulación de la industria sea lo único que le falta a ChatGPT para explotar y expandir aún más su negocio.