El inicio de este 2023 vino acompañado de una serie de noticias negativas que impactaron los mercados tecnológicos a nivel mundial, este escenario incluyó: despidos masivos, recortes presupuestarios, re- estructuración de secciones enteras y modelos de negocio; así como el encause de flujos de inversión hacia tecnologías con un retorno de ganancias más rápido y estable, algo que se espera se mantenga al menos en el 2023. De entre todas las víctimas de este nuevo escenario también surgieron “ganadores”, el más sonado en las últimas semanas es el caso de la Inteligencia Artificial (IA), más específicamente el campo de la IA generativa y su producto estrella (hasta el momento): ChatGPT.
ChatGPT es un chatbot producido por la empresa OpenAI, la cual se encuentra en alianza con Microsoft, empresa que ha invertido más de 10 billones en OpenAI. La novedad del chatbot es su gran potencia de respuestas y el hecho que un producto tan potente haya salido tan rápido al mercado, ganando en el proceso una gran cantidad de adeptos, por lo cual, según algunos analistas, ChatGPT puede sustituir en algún tiempo los buscadores web, o al menos transformar el negocio. Este rumor ha sido tan fuerte y constante que las altas expectativas ya le hicieron perder a Google varios millones, motivo por el cual ésta y otros gigantes de Internet se están apresurando para sacar productos similares al mercado en un plazo de tiempo más corto que el planeado, inaugurando lo que algunos han llegado a llamar “las guerras de la IA”.
La fiebre de las IA generativas ha detonado una serie de especulaciones y propaganda que usualmente tiende a ignorar los riesgos y peligros que puede conllevar la tecnología, no sólo como usuario o inversor, sino en la sociedad en general. Además, la velocidad de este proceso obliga a que las grandes empresas tecnológicas,usualmente más cautas en sus productos, aceleren el desarrollo y lanzamiento de productos como Bard (de Google), aún cuando no esté claro sus posibles consecuencias, errores y efectos en la sociedad. Es por eso que en las siguientes líneas señalaré algunos de los peligros que implica esta tecnología, sobre todo en el caso de los chatbot de texto.
Para iniciar, es menester apuntar que la IA generativa es un campo de estudio y aplicación de la IA en donde se usan algoritmos, modelos y otras técnicas con el objetivo de crear contenido artificial (texto, sonido, imágenes, etc); sin embargo, el proceso de creación está basado en el procesamiento de grandes cantidades de datos pre existentes, con los cuales se entrenan estos productos.
El anterior punto es importante porque surge la pregunta ¿De dónde sacaron esos datos? Y es que es más que probable que estos datos incluyan sets de información personal, información licenciada y propietaria; además, ¿cuál es el tratamiento y etiquetado de estos datos antes de alimentar a un modelo?
Y es que el tratamiento de los datos (millones y millones de ellos) no es hecho por máquinas, sino por personas, los cuales están encargados de etiquetar el tipo de datos y limpiarlos lo más posible, esto significa que estas personas están frecuentemente expuestas a una fatiga emocional resultado de ver algunas de las peores manifestaciones de la humanidad: violencia, asesinatos, pornografía infantil, abusos y mucho más; todo a cambio de una minúscula cantidad de dinero (los encargados de esta labor normalmente son contratistas en países no desarrollados y de desarrollo medio).
En el mismo proceso de construcción también surge la cuestión de los modelos y algoritmos, y es que en caso de alguna falla o error ¿Quién es la persona responsable por las decisiones, omisiones o sesgos que la tecnología muestra? Es muy común que en este capitalismo de plataformas la responsabilidad se disuelve en un entramado corporativo y técnico que deja al usuario prácticamente a su suerte, salvo que el problema abarque a una gran cantidad de usuarios, en tal punto es la empresa la responsable y, si acaso, quien sea CEO.
Es importante señalar que no sólo los desarrolladores de la IA pueden presentar problemas como sesgos, sino los datos mismos, ya sea desde el proceso de su recolección hasta su etiquetado, por lo que la complejidad de estos productos también le confiere opacidad; sin mencionar que, por curioso que parezca, es común que no se entienda en realidad cómo una IA llega a ciertas conclusiones, ni siquiera sus creadores entienden cómo, motivo por el cual existe una área llamada IA explicativa, aunque aún está en desarrollo.
Por otro lado, es normal que el usuario asuma que la IA tiene noción de lo que le preguntamos o, más aún, de lo que responde, como si se esperara que las respuestas tendrán cierto grado de certeza o confiabilidad, lo que implica dos problemas: los datos con los que fue entrenados no son suficientes o son sesgados, en segundo lugar está el hecho que una IA no sabe lo que habla, no tiene una noción, sólo hace asociaciones con base en sus datos de entrenamiento y lo que se solicita.
Es evidente que este producto, al igual que muchos otros, tendrá implicaciones sociales de gran calado, tal como el impacto a la capacidad crítica y analítica, y es que no hay que olvidar que hasta hace poco habíamos algunos que aún nos quejábamos acerca de lo pernicioso que era la búsqueda “personalizada” de Google, sobre todo porque ésta incluye sesgos propios de la empresa y su negocio, por lo que tiene gran incidencia en dónde y cómo nos informamos, así como las redes sociales; sin embargo, ahora con productos como ChatGPT, la información será pre- procesada a la carta, sin saber quién la dijo y de dónde salió la información (a menos que se pague ese servicio).
Este escenario se vuelve más precario si pensamos que una parte de las consultas serán hechas sin un conocimiento previo de lo que se cuestiona, por lo que el identificar sesgos, imprecisiones y errores será prácticamente imposible. En el caso del uso con fines escolares esto tiene repercusiones más grandes, sobre todo porque podría implicar para algunos la pérdida de algunas capacidades importantes: originalidad, estructuración de argumentos, capacidad de reflexión y síntesis.
Y hablando de instituciones educativas, es evidente que un elemento que ayudó a ChatGPT a posicionarse tan rápido en el mercado fue que siguieron la mentalidad de Silicon Valley “Moverse rápido y romper cosas”, en este caso le tocó a la educación, la cual no estaba en absoluto preparada para el arribo de ChatGPT a nivel masivo. Además, para no seguir perdiendo más dinero, los gigantes de internet seguirán el ejemplo de OpenAI-Microsoft, por lo que es probable que el seguir “rompiendo cosas” llegue a otras áreas.
Por último está el recrudecimiento de la tendencia de un capitalismo tecnológico pobremente regulado, en donde el Estado se encuentra atrapado entre una crónica dependencia científico-tecnológica, un pobre sector de investigación y desarrollo y una estructura internacional que es favorable a los grandes actores; sin mencionar con la gran necesidad a nivel mundial de una función pública, legislativa y gubernamental que no sólo entienda la tecnología, sino que esté dispuesta a debatir de manera crítica y alejada de la propaganda.
En este caso en particular, la IA generativa se ha aprovechado de un modelo de protección de datos bastante laxo y conveniente para las empresas, en donde prácticamente se están privatizando las ganancias, mientras que los datos son aprovechados de manera bastante abusiva en detrimento del usuario/ciudadano; así como la socialización de los riesgos y la búsqueda de soluciones a problemas creados por SUS productos (usualmente hechos por los gobiernos, la sociedad civil o la academia).