¿Inteligencia Artificial?
Abril 2025
Gerardo de la Cruz Alegría

A veces me pregunto si llegaré a vivir en ese mundo futurista que tantas películas nos han mostrado: autos voladores y robots humanoides integrados en la vida cotidiana. Lo cierto es que la tecnología avanza a pasos agigantados, acercándonos cada vez más a escenarios que antes parecían ciencia ficción. Un claro ejemplo es la Inteligencia Artificial (IA), una disciplina que busca desarrollar sistemas capaces de realizar tareas que normalmente requieren de inteligencia humana, como el reconocimiento de patrones, análisis de datos, la toma de decisiones o la resolución de problemas.
¿Cómo logra una computadora hacer esto? Bueno, en realidad no es tan complejo, para comprenderlo tenemos que conocer dos conceptos que la hacen funcionar. Por una parte, los “algoritmos”, que en programación son un conjunto de instrucciones lógicas diseñadas para realizar una tarea específica o resolver un problema, como la receta de tu comida favorita.
Por otra parte, tenemos el “machine learning”, que es una técnica que permite que las computadoras aprendan de datos sin ser programadas explícitamente para cada tarea, identificando patrones para predecir resultados o tomar decisiones, y se basa en modelos matemáticos que mejoran continuamente sus predicciones o decisiones. Los algoritmos de “machine learning” aprenden con base en ejemplos específicos, etiquetando información (realizado por humanos), encontrando patrones sin etiquetas (aprendizaje no supervisado o sin humanos) o a través de prueba y error (por refuerzo).
Entonces, ¿cómo logran estas herramientas charlar con nosotros, crear imágenes o música? Lo que percibimos es información que puede convertirse en datos digitales y procesarse mediante algoritmos avanzados. Estos sistemas aprenden patrones en sonidos, imágenes o palabras para reconocer formas, como la de un perro o un avión. A partir de este aprendizaje, pueden generar contenido nuevo que imita esos patrones, influenciado por la información en la que fueron entrenados.
La Inteligencia Artificial, según los expertos, se divide en tres etapas: IA débil (ANI), que es justamente la etapa que estamos experimentando en la actualidad, en donde la IA realiza tareas específicas y no tiene conciencia ni entendimiento general; IA fuerte (AGI), que se espera que sea capaz de igualar la inteligencia humana en múltiples áreas, con razonamiento, toma de decisiones y creatividad, comparables a los de los humanos, y la IA súper inteligente (ASI), la cual plantea que los sistemas artificiales podrían superar ampliamente las capacidades cognitivas humanas en todos los aspectos.
El día de hoy existe un gran número de ejemplos de aplicación de la Inteligencia Artificial como los asistentes virtuales, los anuncios digitales, las recomendaciones de contenido, la detección de rostros, el diagnóstico médico avanzado, los carros autónomos, etcétera. Pero ¿existe alguna aplicación práctica para la política y el gobierno?
En Estonia, por ejemplo, se ha implementado la votación electrónica en línea, lo cual permite que los ciudadanos puedan emitir su voto desde cualquier parte del mundo de forma segura, según los estándares implementados por el gobierno de Estonia.
En Taiwán existe una plataforma que permite a los ciudadanos proponer leyes, discutir temas de interés público y lograr consensos de manera digital, en donde con asistencia de la IA se analizan miles de comentarios y opiniones para identificar puntos en común.
En Suiza se han explorado mecanismos digitales para facilitar la participación en sus procesos de democracia directa.
En un contexto global donde el populismo y las tendencias autoritarias amenazan las democracias, este tipo de tecnologías podrían ser el impulso que permita acelerar decisiones vitales para la sociedad sin sacrificar el consenso y la inclusión.
Lo que nos lleva a las implicaciones éticas de la IA. Según Microsoft Research, la IA debería cumplir con los principios FATE, por sus siglas en ingles: Fairness (equidad), que no discrimine ni refuercen sesgos injustos, que sean imparciales; Accountability (responsabilidad), que los desarrolladores (empresas o instituciones) rindan cuentas por los resultados de sus sistemas; Transparency (transparencia), que el funcionamiento sea comprensible para saber por qué se toman esas decisiones automatizadas, y Ethics (ética), que respete los derechos humanos, promueva el bienestar social y evite daños.
Lo cierto es que el mundo aún se está preguntando cuál debe ser el impacto de la IA en la sociedad, incluyendo implicaciones éticas sobre posibles sesgos, la privacidad, el desempleo y la manipulación de la información. También se plantea el dilema de las regulaciones excesivas que podrían limitar su desarrollo. Algunas organizaciones internacionales como la UNESCO han publicado una guía sobre la ética en la IA y otros como la UE han avanzado en leyes para regular el riesgo a los derechos fundamentales.
El avance de la Inteligencia Artificial es imparable, pero el verdadero reto está en garantizar que sus beneficios lleguen a todos sin poner en riesgo nuestros derechos y libertades. Con el desarrollo adecuado, la IA tiene el potencial de mejorar la vida de millones de personas en áreas como la salud, la educación y la seguridad. El desafío es hoy: gobiernos, empresas y ciudadanos debemos trabajar juntos para garantizar que la IA sea una herramienta para el bien común.