La inteligencia artificial (IA) se ha vuelto parte de nuestro día a día. Y lo digo en el sentido más literal. Te explico: a veces me sorprendo pidiéndole ayuda a la IA como si fuera una persona real. Por ejemplo, le digo “querido chat, ¿me puedes ayudar?”… Confieso que, por momentos, olvido que solo es un modelo entrenado con un inmenso banco de datos. Sé que no soy la única. La IA ha irrumpido en nuestra cotidianidad, influyendo en decisiones cada vez más personales, desde elegir una carrera hasta interpretar la mente de nuestra pareja o incluso definir nuestro voto en una elección presidencial.
Para entender mejor este fenómeno, conversamos con la Mgtr. Alexandra Viñán, coordinadora de la carrera de Ingeniería en Ciencia de Datos de la Pontificia Universidad Católica del Ecuador (PUCE). Junto a ella, analizamos cómo la IA está transformando nuestra manera de decidir.
¿Cómo usamos la IA la mayoría de las personas?
La inteligencia artificial ya no es exclusiva de especialistas ni de personas privilegiadas. Hoy, cualquier persona puede acceder a ella con solo un teléfono o una computadora con Internet. Es importante tener conciencia de que la IA se está integrando por completo en nuestra vida cotidiana. Y, no hay marcha atrás.
Podemos hacerle preguntas tan simples como «¿qué lugar turístico me recomiendas para este fin de semana?» o plantear cuestiones mucho más complejas, como en las elecciones, que podría afectar a toda una sociedad.
¿Cómo obtiene los datos la inteligencia artificial?
La inteligencia artificial no genera conocimiento por sí sola. Esta se alimenta de datos que han sido recopilados y almacenados en la nube. Existen modelos diseñados por equipos de desarrolladores que utilizan diversas fuentes de información para entrenar estos sistemas.
Es fundamental preguntarnos ¿quién está detrás de estos modelos? ¿Cuáles son sus políticas, objetivos e intereses? La IA funciona como un niño en proceso de aprendizaje: cuanta más información recibe, más capacidad tiene para responder. La precisión de los resultados depende de la calidad y el alcance del modelo matemático que organiza esta información.
Empresas con enormes recursos económicos invierten en mejorar estos sistemas, lo que genera una brecha entre las versiones gratuitas de IA y las versiones pagas. Estas últimas tienen acceso a información más optimizada y modelos más avanzados.
Independientemente de este aspecto, siempre debemos preguntarnos: ¿la IA está diseñada para proporcionarnos información objetiva? No podemos aceptar sus respuestas de manera acrítica. Detrás de cada resultado hay decisiones humanas que determinan qué información se prioriza y cómo se nos presenta.
¿Podemos decir entonces que esta herramienta no es neutral?
Exactamente. Está alimentada por quienes la crean, y esos desarrolladores pueden tener intereses o sesgos. El problema es que la mayoría de las personas no tomamos en cuenta ese origen, lo que puede influir en nuestras decisiones sin que nos demos cuenta.
Por ejemplo, si alguien manipula un algoritmo para favorecer a un candidato, podría mostrar solo sus cualidades positivas y ocultar cualquier aspecto negativo. Para evitarlo, los modelos de IA procuran garantizar transparencia y equilibrio en la información que ofrecen, pero el sesgo sí existe.
Además, el modo en que formulamos nuestras preguntas también influye en las respuestas que recibimos. Si consultamos sobre un dolor de cabeza sin especificar otros síntomas, la IA podría dar una recomendación equivocada.
Entonces, ¿es positivo el rol que tiene esta tecnología en nuestras decisiones cotidianas?
Si estamos en un entorno financiero, por ejemplo, podemos hacer preguntas sobre ciertos procesos y proyecciones. Con datos precisos, la IA nos dará respuestas rápidas y accesibles. Esto no solo facilita la toma de decisiones, sino que también nos permite aprender como usuarios. En ese sentido, la IA ofrece grandes beneficios.
Sin embargo, es fundamental que entendamos que las respuestas de la IA deben pasar por un proceso de reflexión. Cada persona tiene criterio, es decir, la capacidad de evaluar si la información realmente nos beneficia o si necesita un análisis más profundo.
En temas como la política, por ejemplo, el razonamiento crítico es clave. No importa qué tan avanzada sea la IA, siempre debemos cuestionar, contrastar y razonar la información que nos proporciona.
Pero, ¿cómo desarrollamos ese pensamiento crítico que menciona?
Como sociedad, debemos aprender a convivir con estas tecnologías sin perder nuestra autonomía frente a sus sugerencias. Si un adolescente de 14 años le pregunta si debería irse de casa y recibe un simple «sí» como respuesta, ¿tiene la madurez suficiente para discernir las implicaciones de esa respuesta?
El impacto de la inteligencia artificial en el mercado ha sido innegable, provocando incluso la transformación de múltiples industrias. Pero detrás de esta revolución no está solo la promesa del progreso social, sino un interés económico evidente. Entonces, ¿qué hacemos como sociedad ante esto? La clave está en desarrollar el pensamiento crítico. Como docentes, debemos enseñar a los estudiantes a cuestionar la información que reciben.
Muchas empresas entrenan estos modelos con datos que reflejan sus propios intereses, lo que puede influir en las respuestas que recibimos. Estas pueden estar sesgadas, alinearse con ciertas posturas éticas o incluso estar diseñadas para persuadirnos. Sin embargo, lo verdaderamente crucial es nuestra capacidad de analizarlas con criterio. Si no fortalecemos nuestro pensamiento crítico y analítico, corremos el riesgo de aceptar pasivamente lo que la IA nos dice, sin cuestionarlo ni contrastarlo con otras fuentes.
También te puede interesar:
Madre Montserrat del Pozo: la inteligencia artificial no es una amenaza