Vivimos una coyuntura en la que el desarrollo de la Inteligencia Artificial (IA) y de su capacidad para substituir las habilidades del ser humano, van en incremento. Asimismo, también lo está su capacidad para hacer indistinguible la verdad del error.

Expertos y expertas estiman que en un plazo de tiempo muy corto —quizá en un año o dos, máximo— las personas no podremos distinguir la autenticidad de un video hecho utilizando IA. Aunque su uso ha reportado algunos beneficios, mayor eficiencia en la realización de procesos mecánicos y repetitivos, reducciones de costos para las empresas, sistematización de una cantidad considerable de información, entre otras, todavía se vislumbran más áreas de oportunidad en su uso que beneficios totales.

Actualmente, ya se utiliza esta tecnología para generar confusión y fraude cibernético; sin embargo, sus usos potenciales serán en poco tiempo impredecibles y cualquier ciudadana podría ser víctima de suplantación de identidad. 

Ante estos riesgos, la filósofa estadounidense Shoshana Zuboff, en una entrevista con el diario El País, menciona que hay muy pocas cosas, entre las que hacemos cotidianamente, que no contribuyan a lo que denomina el capitalismo de la vigilancia. Con ello, Zuboff se refiere a la estrategia que han implementado los grandes oligarcas de las empresas tecnológicas, como Google, para guardar y sistematizar nuestra información personal cada vez que navegamos en internet y, posteriormente, vender dicha información a otras empresas que lucran con nuestras búsquedas, preferencias y sesgos. 

Si bien los mecanismos con los que funciona el capitalismo de la vigilancia no son completamente nuevos, ya Google los utiliza desde hace varios años, la novedad es que la IA, a través del Chat GPT y del uso de nuevas tecnologías para utilizar las imágenes de las personas en videos, fotos o mensajes de voz imitando su físico y locución, sí abren un nuevo escenario de riesgo global para todas las personas promedio y nos somete a una nueva era del riesgo mundial, parafraseando al sociólogo Ulrich Beck quien, desde el año 1992, escribió el famoso libro La sociedad del riesgo global ante los riesgos sin precedentes que el uso de las nuevas tecnologías conllevaban, desde entonces, para las sociedades contemporáneas.

La falta de regulación oportuna y la incapacidad para la deliberación pública en la que podamos ponernos de acuerdo sobre qué representa un riesgo que debamos de tomar seriamente en cuenta, contribuyen aún más a la desprotección de los ciudadanos promedio y, con ello, de las democracias contemporáneas. Solamente la Unión Europea ha tomado este reto con seriedad, aunque todavía falta un gran camino por recorrer antes de que sus leyes puedan estar a la altura de los retos actuales. 

Por su lado, la filósofa mexicana Clarissa Véliz, ha afirmado que nuestros sistemas democráticos están en riesgo, pues “la democracia depende de tener información fiable y de que los ciudadanos estén relativamente bien informados (…) y, si tienes una máquina cuya especialidad es inventarse historias que son plausibles y verosímiles, pero no verdad, y facilita la generación de estos contenidos a escala, pues evidentemente hay un problema de desinformación". 

Por ello, considero que implementar estrategias de autocuidado, implica preservar lo más posible nuestra privacidad, estar conscientes de que los resultados de nuestras búsquedas en Chat GPT no necesariamente corresponden a la realidad, que las nuevas virtudes morales que deberemos de desarrollar las personas, antes de enfrentarnos a la ira o indignación al ver un video que parezca plausible pero falso, son la mesura, la duda y nuestra capacidad para intentar distinguir la verdad de la falsedad. 

A su vez, la implementación de estrategias de cuidado colectivo es también imprescindible. Entre ellas, nuestra capacidad de diseñar estrategias colectivas que nos permitan distinguir la verdad del error y de la manipulación; poder conservar nuestra capacidad de criticidad sin ceder a la tentación de recurrir a Chat GPT para consultar cualquier dato que, en otros tiempos, aclararíamos con la búsqueda en un diccionario o enciclopedia.

Nuestra resistencia a que el debate público sobre temas fundamentales lo marquen los algoritmos, así como promover debates genuinos sobre problemas reales al margen de las prioridades económicas de grupos oportunistas, filtradas a través de la tecnología.

El año 2026 será un año de retos nuevos sin precedentes en temas de tecnología y AI. En pocas palabras, debemos de estar conscientes de que enfrentamos riesgos considerables para el mantenimiento de nuestras democracias, nuestra capacidad para el ejercicio del pasamiento crítico y autónomo y el reto de continuar con muchos de los principios y valores que, con todas sus fallas, nos heredó para bien, y en mi opinión, la tradición filosófica de la Ilustración. 

Referencias:

Imagen