La consultora tecnológica especializada en IA, Cristina Aranda, durante su visita a la Universidad de La Laguna en 2025, expuso su visión crítica sobre la actualidad de la inteligencia artificial. En un mercado saturado de plataformas como ChatGPT o Gemini, destaca la falta de diversidad en el desarrollo de la IA y la urgente necesidad de perfiles humanistas para garantizar su ética y bienestar social.
¿Cómo influyen las humanidades en la IA?
La concepción inicial de la IA como una réplica de la inteligencia humana plantea la imperiosa necesidad de considerar la complejidad humana en su desarrollo. Cristina Aranda enfatiza la relevancia de incorporar perfiles de Humanidades en el diseño de estas tecnologías, desde sociólogos y psicólogos hasta filósofos y periodistas, para asegurar una IA más ética y comprensiva.
Impacto de la IA en la vida cotidiana
La interacción diaria con diversos modelos de IA ya incide en decisiones cotidianas como la elección de restaurantes, compañía en citas o preferencias musicales. Sin embargo, la influencia va más allá al poder impactar en decisiones políticas y democráticas, destacando la necesidad de regular su uso para proteger la integridad y privacidad de las personas.
¿Quién toma las decisiones en la IA?
A pesar de ser una tecnología, son las personas quienes deben asumir la responsabilidad en el desarrollo y uso de la IA. La formación, colaboración y ética son fundamentales en este proceso para garantizar que las decisiones tomadas por los algoritmos respeten los valores democráticos y el bienestar de la sociedad.
Descripción de la IA en su implementación actual
Existen distintos enfoques en la implementación de la inteligencia artificial, desde modelos de lenguaje amplio hasta plataformas como ChatGPT. La falta de transparencia y control en el entrenamiento de estos modelos genera preocupación por la reproducción de sesgos y la seguridad de la información confidencial utilizada en su interacción.
IA y su impacto en la educación
El uso creciente de IA en entornos educativos plantea desafíos en el desarrollo cognitivo de los estudiantes al fomentar la dependencia tecnológica. La necesidad de regular y orientar su uso de forma crítica se vuelve imperativa para preservar la capacidad de aprendizaje y el pensamiento autónomo de las nuevas generaciones.
Regulación ética en la IA: Principios fundamentales
La regulación ética de la IA debe integrar principios como la beneficencia, cooperación, sostenibilidad, no maleficencia y transparencia para garantizar su desarrollo responsable. La formación y conciencia sobre los impactos de la IA en la sociedad son clave para establecer un marco normativo que proteja los derechos y valores fundamentales.
Posibilidad de una regulación ética en la actualidad
La necesidad de una regulación ética en la IA se hace evidente ante los retos y riesgos que plantea su uso indiscriminado. La responsabilidad de las empresas y gobiernos en garantizar la seguridad y ética en el desarrollo tecnológico es crucial para preservar la integridad y libertad de las personas.
Opinión sobre la sentencia a Google y Meta por adicción a redes sociales
La reciente sentencia a Google y Meta por su responsabilidad en la adicción a redes sociales marca un precedente en la regulación de tecnológicas. La necesidad de normativas que protejan a los usuarios y promuevan la transparencia en el uso de algoritmos es fundamental para mitigar los impactos negativos de la IA en la sociedad.
¿Quién dicta los valores en el desarrollo de la IA?
Organismos como la ONU y entidades locales como la Secretaría de Inteligencia Artificial en España buscan establecer directrices éticas en el desarrollo de la IA. La colaboración interdisciplinaria y la diversidad de voces son clave para incorporar valores humanos en la creación y regulación de estas tecnologías.
Source: www.laprovincia.es
