El lanzamiento de ChatGPT, en noviembre de 2022, tomó por sorpresa a todo el mundo dada la capacidad de este gran modelo del lenguaje para producir ensayos de cualquier tema, programas, recetas, cualquier tipo de texto de buena calidad sólo con darle una breve instrucción. Por medio de una interfaz web, uno puede interactuar con este modelo de inteligencia artificial, ordenándole que haga ciertas tareas como si se tratase de un humano que comprende el idioma en el que le escribes. Este modelo del lenguaje no es más que un modelo neuronal con miles de millones de parámetros cuyo desarrollo requiere de miles de procesadores gráficos (GPUs), terabytes de datos y varios días de espera, una infraestructura especializada que sólo en países como Estados Unidos y China se puede encontrar. Este tipo de modelos del lenguaje básicamente tratan de predecir la siguiente palabra de una oración o texto que se le haya provisto, y depende de haber procesado en una etapa previa, millones de textos escritos por humanos de todo tipo, en una especie de aprendizaje que caracteriza a los modelos neuronales. Estos modelos neuronales en sí no son más que un conjunto de funciones no lineales, funciones que nosotros como humanos nos es difícil comprender pero que pueden ayudar a modelar relaciones complejas, por lo que mucho del trabajo alrededor de estos modelos se basa más en la experiencia que en la teoría. Es por ésto que modelos del lenguaje como ChatGPT, se basan simplemente en aumentar el número de parámetros que estos modelos neuronales contienen, y hacerlos aprender con mayores cantidades de datos, relaciones aún más complejas.
Para hacer todo ésto se requiere, de nuevo, de una infraestructura computacional que contados países tienen, y dada la importancia que estos modelos empiezan a tener en el contexto de inteligencia artificial general, cuyo logro daría una ventaja tecnológica militar a cualquier país que logre acercarse a ella, puede que estemos en las vísperas de una nueva carrera armamentista alrededor de este tipo de tecnología. Modelos del lenguaje pueden usarse para “entender” lo que un humano desea y realizar una tarea apropiada, y por lo tanto pueden empezar a suplir profesiones que requieren de algún tipo de razonamiento mental (trabajo cognitivo), contrario a como antes se pensaba, en donde serían las profesiones que requieren trabajo manual las primeras en ser sustituidas por seres artificiales inteligentes. Estos modelos de lenguaje sirven para realizar tareas que requieran análisis de textos, y fácilmente se adaptan para crear centros de comando automatizados para cuestiones militares o policiales, al hacer que estos modelos procesen conversaciones o datos arrojados por sensores, y luego planean una respuesta. Nuevos desarrollos permiten que los modelos del lenguaje ya puedan razonar sobre combinaciones de imágenes y texto, como GPT-4. Pero debido a que las entrañas del modelo en sí son incomprensibles para el humano, muchas de las nuevas habilidades de estos modelos se han descubierto a partir de pruebas, en vez de haberse pensado como parte del diseño original, lo que nos dice básicamente que los diseñadores no saben el alcance de los modelos que crean.
Un desarrollo tecnológico que en teoría es liberador para la humanidad, al permitirnos dejar de hacer tareas tediosas y repetitivas, se vuelve en el capitalismo una fuente de incertidumbre, no sólo para los trabajadores, sino para la sociedad en general. En su búsqueda voraz de ganancias, las compañías desarrollan tecnología y la comercializan sin entender el impacto que pueda tener, sin esperar a que exista un diálogo con los pueblos en el que se estipule un periodo de prueba y transición para reestructurar el sistema económico y social, si es que se requiere. Las corporaciones imponen la agenda tecnológica muchas veces, ganando al gobierno de su lado con la ayuda del cabildeo. Modelos del lenguaje como ChatGPT, hacen redundantes ciertas profesiones, lo que requiere de un reacomodo de los trabajadores en otras profesiones para que las sociedades puedan seguir creciendo en complejidad. Las escuelas requieren adaptarse a estas nuevas herramientas que permiten a un alumno resolver cualquier tarea y examen en unos segundos sin tan siquiera entender concepto alguno de la clase. En una sociedad de mercado, la disrupción es la norma, no importando cuanta gente es afectada, ya que el punto es generar ganancias a como dé lugar, lo más rápido posible. De igual forma, el diseño de los modelos del lenguaje está sesgado por los datos utilizados en su aprendizaje, por lo tanto, estos modelos podrían estar generando respuestas que reproducen las desigualdades existentes en nuestras sociedades, por no decir que puedan inducir comportamientos antisociales. Justamente debido a que fácilmente pueden convertirse en propagandistas del país o compañía en los que son desarrollados, países como China han competido con Estados Unidos para crear sus propios modelos con los sesgos que creen son más apropiados, al entrenarlos con diferentes colecciones de documentos de texto.
La importancia de estos modelos del lenguaje recae de nuevo en que pueden ser reutilizados en miles de maneras para tareas más específicas con un poco de afinación, en vez de necesitar entrenar todo un nuevo modelo neuronal desde cero, volviéndose expertos en cuestiones legales, en tácticas militares, etc. Aquí radica la importancia de los modelos de lenguaje que ahora se les conoce como modelos fundacionales, y la búsqueda de cada país por desarrollar su propio modelo fundacional en favor de su soberanía tecnológica. Aunque en Estados Unidos la investigación básica en modelos neuronales e inteligencia artificial ha sido realizada a través de laboratorios en universidades y en grandes corporaciones tecnológicas, con ayuda del gobierno han sido las corporaciones con sus recursos computacionales centralizados, las que han podido crear particularmente estos grandes modelos fundacionales, y lo han hecho de forma que bloquean el acceso a su código fuente y a los datos usados al público en general. Las corporaciones han privatizado estos modelos que tienen el poder de cambiar diferentes ámbitos de nuestra sociedad, y al crecer el uso de estos modelos, su poder aumentará de igual forma, y cualquier sesgo que se introduzca en estos modelos impactará igualmente en las aplicaciones donde se utilice. Uno podría pensar que las corporaciones estadounidenses podrían empezar a introducir, inclusive, una especie de anuncios sutiles en los textos producidos por sus modelos, de modo que las respuestas estén sesgadas hacia promover ciertos productos. El esfuerzo de China todavía no es comparable al estadounidense y es realizado también por sus propias corporaciones tecnológicas como Huawei, aunque obviamente en China estas corporaciones están controladas por el gobierno de una forma que en Estados Unidos no.
Finalmente, dado que estos modelos necesitan una gran cantidad de datos, podría empeorar la situación concerniente a la privacidad de los usuarios, al haber una mayor necesidad de extraer información, en un intento por desarrollar modelos cada vez más poderosos, introduciendo la lógica del mercado cada día más en los círculos íntimos de la humanidad.
Aunque modelos como ChatGPT todavía cometen ciertos errores lógicos, no se debe subestimar su utilidad para la automatización de diferentes labores, y tampoco se debe esperar a que se cree una forma de distinguir los textos producidos por este modelo de los creados por humanos. Esta tecnología está aquí para quedarse, la pregunta es de qué forma ayudará a mantener la lógica capitalista intacta, o del otro lado, si es que podrá ser utilizado para subvertirla.
Jacobo Hernández
Deja un comentario