martes, 23 de abril de 2024

 

CONSIDERACIONES ÉTICAS PARA LA INTELIGENCIA ARTIFICIAL (IA) EN EDUCACIÓN SUPERIOR

 

Que nadie mientras sea joven, se muestre remiso a filosofar, ni al llegar a viejo, al filosofar se canse porque para alcanzar la salud del alma nunca se es demasiado viejo, ni demasiado joven

Carta de Epicuro a Meneceo

 

Desde los albores de la sociedad tal como la concebimos, los seres humanos han sentido una ineludible necesidad de transmitir sus conocimientos, experiencias y enseñanzas a las generaciones venideras. Esta transmisión ha sido fundamental para preservar una sabiduría que ha ido evolucionando a lo largo de los siglos. Los métodos empleados para esta transmisión han experimentado grandes cambios a lo largo del tiempo. Inicialmente, prevalecía la tradición oral, pero con el tiempo, gracias a la inventiva humana, surgieron métodos más eficaces para almacenar y compartir conocimiento, como la escritura.

 

Las grandes civilizaciones sentaron las bases de formas rudimentarias de escritura, y un hito crucial se alcanzó en el último milenio con la invención de la imprenta, la cual permitió la reproducción masiva de textos y democratizó el acceso al conocimiento. De manera similar, Internet ha transformado radicalmente la manera en que accedemos al conocimiento, haciéndolo digital y accesible como nunca antes.

 

En los últimos años, en un contexto de explosivo crecimiento de los datos generados, almacenados y compartidos por los humanos a través de plataformas digitales, han surgido herramientas innovadoras de inteligencia artificial generativa. Estas herramientas posibilitan la creación de textos, videos y audios a partir de simples instrucciones, simplificando enormemente esta tarea.

 

Los cambios drásticos que ésta tecnología trae a la educación, la cual representa el pilar más noble de la actividad humana y es esencial para el progreso de nuestra civilización, vienen acompañados de importantes implicaciones éticas que debemos considerar antes de comenzar a integrar rápidamente la Inteligencia Artificial. La tecnología de IA no se construyó principalmente para la educación y las preocupaciones de los maestros pueden diferir considerablemente de la de los desarrolladores. Muchas de las principales compañías de IA han expresado su compromiso con el desarrollo ético de la tecnología de IA. Por ejemplo, Dave Willner de Trust And Safety en OpenAI dice que “En una sociedad donde el acceso a herramientas de IA generativa se volverá tan esencial como el acceso a internet, debemos equilibrar nuestra obligación de mitigar riesgos serios con permitir que florezcan valores diversos”. Anthropic, una empresa fundada por ex empleados de OpenAI se ha comprometido a desarrollar IA “constitucional”, que consideran más segura y ética que GPT. La IA constitucional se entrena en principios rectores en lugar de retroalimentación específica, de modo que la IA pueda aprender explícitamente los valores que se supone debe seguir en lugar de hacerlo implícitamente a través del entrenamiento. Google, Microsoft, Facebook y Apple también se han comprometido a desarrollar tecnologías y herramientas de IA éticas y responsables y a regular cuidadosamente la tecnología.

 

El problema persiste en que los educadores aún deberán decidir las implicaciones éticas y las implicaciones sobre estas tecnologías en ausencia de políticas y regulaciones gubernamentales. Por tanto, mientras exploramos las posibilidades transformadoras que estas herramientas pueden aportar al aprendizaje y la enseñanza, es esencial abordar las preocupaciones fundamentales que rodean su aplicación. Una de las principales preocupaciones que emerge al considerar la IA en el ámbito educativo es la presencia potencial de sesgos en los datos utilizados para entrenar estos sistemas avanzados.

 

En este contexto, es imperativo abordar la Inteligencia Artificial con una mirada crítica, incorporando un enfoque responsable en su aplicación y respaldándolo con una legislación que supervise y regule su uso. La conciencia de los posibles sesgos y discriminaciones que podrían surgir subraya la importancia de un abordaje cuidadoso y ético al aprovechar las innovaciones de la IA en el contexto educativo actual. 

 

Además, debemos preparar a los estudiantes para ser conscientes de cómo sus acciones afectan a los demás cuando usan IA y cómo pueden protegerse de la propaganda y la desinformación. También necesitan los conocimientos y habilidades fundamentales para discutir las implicaciones éticas de la IA y abogar y tomar decisiones que hagan que la sociedad sea más segura para todos.

 

Debemos cerciorarnos de que los estudiantes estén educados sobre el uso ético y responsable de la IA, para que vean la IA como una herramienta que puede ayudarles a aprender y crecer, en lugar de evitar el trabajo duro. En este tramo de mi disertación quiero proponer algunos principios fundamentales de uso responsable que los educadores deben enfatizar:

 

·       Honestidad. Los estudiantes deben utilizar herramientas de IA para ayudar a su pensamiento y aprendizaje, no como un reemplazo del trabajo duro.

·       Privacidad. Los estudiantes deben considerar la importancia de su privacidad y cómo la IA la afecta.

 

·       Equidad. Los estudiantes deben ser conscientes de los posibles sesgos de los sistemas de IA.

 

·       Humanidad: los estudiantes deben comprender los límites de la tecnología de IA y ser capaces de identificar dónde es necesaria la intervención humana.

 

·       Adaptación: los estudiantes deben comprometerse con el aprendizaje continuo sobre la IA y sus implicaciones en sus vidas y en el resto de la sociedad.

 

Los estudiantes deberán comprender a fondo el potencial de sesgo en los sistemas de IA y la capacidad para identificarlos a través de habilidades refinadas de pensamiento crítico, incluida la capacidad para detectar falacias lógicas y sesgos cognitivos. En un mundo cada vez más digital, deberemos enseñar a los estudiantes cómo practicar una comunicación respetuosa y empática en entornos en línea potenciados por IA y considerar los sentimientos y perspectivas de los demás. Necesitarán habilidades de escucha activa y mente abierta para asegurarse de poder valorar diversas opiniones y no permitir que el contenido impulsado por IA refuerce sus ideas preconcebidas sobre la sociedad. Las aulas pueden ayudar a desarrollar ciudadanos digitales estableciendo y comunicando pautas claras de seguridad en línea y privacidad. Además, habilidades fundamentales de ciudadanía digital como crear contraseñas seguras, reconocer intentos de phishing y administrar información personal en línea seguirán siendo de suma importancia. Identificar y detectar el ciberacoso y otras formas de comportamiento digital malintencionado también será central para la ciudadanía digital

 

Educar en la era de la inteligencia artificial conlleva la responsabilidad de asegurarse de que nuestros estudiantes sean usuarios responsables y consumidores inteligentes de contenido generado por IA. Modelar el comportamiento adecuado y establecer estándares ejemplares de lo que es y no es aceptable, comenzará en nuestras aulas.

 

En conclusión, las implicaciones éticas de la tecnología de IA en la educación presentan un desafío complejo. Nuestras aulas y sociedad están en el umbral de una transformación moldeada por esta tecnología. Si bien deberíamos estar emocionados por abrazar todo el potencial de la IA, debemos ser reflexivos y deliberados en nuestro enfoque para asegurarnos de que se alinee con nuestros principios éticos.

 

Aunque las empresas de IA intentan ser proactivas sobre el impacto de sus tecnologías en la sociedad, la responsabilidad última recae en los educadores para considerar las complejidades de las diversas tecnologías y los contextos en los que las integramos para garantizar la seguridad de todos nuestros estudiantes.

 

Debemos seguir siendo conscientes de cómo se comparten los datos con terceros y garantizar que se respete la privacidad de estudiantes y maestros.  También debemos trabajar juntos para identificar los cambios que debemos hacer en nuestro sistema educativo de educación superior para abrazar de manera más efectiva,

 la era de la IA sin empeorar los problemas existentes. Debemos asegurarnos de que los beneficios de la IA nos ayuden a llegar a los estudiantes que más nos necesiten en lugar de dejar que se queden atrás a medida que integramos nuevas tecnologías.

 

Las consideraciones éticas para la integración de la IA en el aula requieren un enfoque proactivo, y abordar estos desafíos asegurará que la promesa de la IA en la educación se realice de manera efectiva para todos.

 

 

 

 

 

“Abracemos la innovación sin perder de vista nuestros valores”

jueves, 22 de febrero de 2024

 

SILICOLONIZACIÓN Y LA POSVERDAD DIGITAL

Según Bauman (2007), el desafío de este siglo no radica únicamente en los problemas que enfrentamos, ni en la incertidumbre o los dilemas éticos y científicos, la verdadera dificultad reside en la ausencia de un marco conceptual para abordar la complejidad de la época. La magnitud de esta complejidad ha desorientado a las personas, privándolas de una brújula para comprender fenómenos extremadamente intrincados, como los que caracterizan al siglo XXI.

¿Por qué es complejo este siglo? Porque experimentamos un momento de poder planetario, tecnológico y económico sin precedentes en la historia, todos convergiendo simultáneamente. Lo que denominamos “ser” se ha lanzado a la existencia en condiciones sumamente complejas, especialmente en el ámbito tecnológico, donde factores y elementos confluyen de manera abrumadora para la comprensión humana.

En su obra Postmodernidad y Comunidad, Prieto (1992) aborda la “nueva alfabetización del mundo”, destacando la actual post-alfabetización de la vida. Durante 30,000 años, los seres humanos pensaron de manera similar, hasta que una disrupción tecnológica transformó la forma en que concebimos el pensamiento. Habermas (1994), afirma que estamos presenciando una mutación en las realidades humanas, marcando un cambio significativo en la forma de pensar.

Santos (2009) sostiene que estamos inmersos en una nueva ecología del conocimiento, donde se configura un paisaje intelectual y un pensamiento racional diferente. Por su parte Marx, al hablar de la creatividad y la transformación interminable del conocimiento, no sólo en la producción y la cultura, sino también en el espíritu capitalista, señala la relevancia de este cambio de paradigma (Altvater & Borón, 2006).

En el presente, esta posibilidad de razonar (o, si se prefiere, de emitir juicios) y la libertad para ejercer esta facultad sin restricciones ni condicionamientos, se ve cada vez más obstruida y amenazada por la diseminación global de un modelo de existencia gestado y aplicado por el tecnoliberalismo.

El principal objetivo de este sistema consiste en imponer un paradigma de vida que dé origen a una nueva forma de civilización, donde el uso masivo de la inteligencia artificial y la organización algorítmica de las interacciones humanas generen, y de hecho ya lo están haciendo en diversos ámbitos, sociedades cada vez más automatizadas. Estas sociedades se tornan maleables a los influjos y al control de los centros de poder del capitalismo, mostrándose menos resistentes a la adopción de conductas promovidas por aquellos que ven en la sumisión ciudadana una fuente de lucro para algunos de sus negocios multimillonarios.

A este fenómeno lo denomina el filósofo francés Sadin (2020) la “silicolonización del mundo”, porque responde a la estrategia elaborada por las más importantes empresas radicadas en Silicon Valley que pretenden imponer su cosmovisión ideológica al resto del globo.

Foucault (1975), con su profunda indagación sobre el poder y el conocimiento proporciona una lente valiosa para examinar cómo la silicolonización afecta nuestra capacidad de discernir la verdad. Éste argumenta que el conocimiento está intrínsecamente vinculado al poder y que las instituciones tienen la facultad de moldear la percepción de la verdad mediante la regulación de la información.

La silicolonización, especialmente a través de la personalización algorítmica, se presenta como un claro mecanismo de poder en la era digital funcionando como un filtro entre la vasta cantidad de información disponible, este proceso moldea la narrativa informativa que llega a los individuos. Los algoritmos, diseñados para anticipar y adaptarse a nuestras preferencias actúan como agentes de regulación que no sólo ofrecen contenidos afines a nuestros gustos, sino que también inciden en nuestra percepción de la verdad.

En el análisis foucaultiano de la regulación del poder, se puede afirmar que la silicolonización no se limita a satisfacer nuestras preferencias informativas; va más allá al ejercer un control sutil sobre nuestra interpretación de la verdad. Este control se manifiesta en la selección cuidadosa de la información presentada, moldeando así la percepción colectiva y, en última instancia, consolidando el poder de quienes diseñan y controlan estos algoritmos.

La posverdad digital caracterizada por la prevalencia de opiniones y emociones sobre hechos objetivos, sugiere que la realidad misma está siendo moldeada según nuestras preferencias. Baudrillard (1970), postula que vivimos en una sociedad donde las representaciones de la realidad han reemplazado a la realidad misma. En “la Sociedad de Consumo” Baudrillard señala cómo la realidad contemporánea se ha vuelto híper real, donde las imágenes y representaciones desplazan la realidad tangible.

Por su parte Nietzsche (1885), con su perspectiva perspectivista, ofrece una contribución valiosa para abordar los desafíos filosóficos planteados por la silicolonización y la posverdad digital. Nietzsche propone que la verdad es siempre subjetiva y depende de la perspectiva desde la cual se observa. En “Así habló Zaratustra” presenta la idea de que la verdad es un ejército móvil de metáforas, esta metáfora sugiere que la verdad es una construcción fluida y cambiante, dependiente de la interpretación subjetiva. Aplicando esta noción a la silicolonización, podríamos argumentar que la información personalizada crea ejércitos móviles de interpretaciones que varían según las perspectivas individuales. No es que la verdad sea inexistente, sino que es fluida y dependiente de la interpretación subjetiva.

Borgmann (1984), conocido por su trabajo en ética aplicada a la tecnología, ofrece un marco ético para examinar la influencia de la silicolonización en la percepción de la verdad. Éste propone la idea de dispositivos focales, que son tecnologías que permiten experiencias significativas y no mediadas. En “La tecnología y el carácter de la vida contemporánea” destaca cómo ciertas tecnologías pueden alienarnos de experiencias significativas por lo que podríamos argumentar que la sobrepersonalización digital perturba nuestra conexión con la verdad objetiva.

Ihde (1990), propone una reflexión profunda al reconocer que la relación entre la tecnología digital y la verdad no es unilateral; no sólo estamos consumiendo información, sino que también estamos siendo moldeados por las tecnologías que la presentan. Una conciencia crítica permite una adaptación más informada y reflexiva a este nuevo panorama, donde las tecnologías digitales juegan un papel crucial en la formación de nuestras creencias y comprensión del mundo. Tal y como diría Parménides, pensar el acontecimiento es la vía única hacia la verdad (Hirschberger, 1965). Por tanto, tomando como base a los presocráticos para los cuales lo más importante no eran las respuestas que daban, sino las preguntas que se hacían; les invito a dudar, a cuestionarse, a estar atentos a lo que está pasando para luchar por el interés que tiene el poder para idiotizarnos.

 

Bibliografía

Altvater, E., & Borón, A. (2006). La teoría marxista hoy. Problemas y perspectivas.

Baudrillard, J. (1970). La sociedad de consumo. Siglo XXI.

Bauman, Z. (2007) Miedo líquido. La sociedad contemporánea y sus temores, Paidos, Barcelona.

Borgmann, A. (1984). Technology and the character of contemporary life: A philosophical inquiry. University of Chicago Press.

Foucault, M. (1975). Vigilar y Castigar: Nacimiento de la prisión. Siglo XXI.

Habermas, J. (1994). Teoría de la acción comunicativa: complementos y estudios previos. Madri: Cátedra. Teorema: International Journal of Philosophy.

Ihde, D. (1990). Technology and the Lifeworld: From Garden to Earth. Indiana University Press.

Nietzsche, F. (1885). Así habló Zaratustra. Alianza Editorial.

Pietro, B. (1992). Postmodernidad y comunidad. El regreso de la vinculación social. Madrid, Editorial Trotta, citado en Juan Pablo Palladino, “La ciudad: entre la reivindicación del espacio público y la privatización de la vida”, Revista Teina.

Sadin, E. (2019). La silicolonización del mundo. La irresistible expansión del liberalismo digital. Revista Iberoamericana de Ciencia, Tecnología y Sociedad-CTS14(42), 203-208.

Santos, B., de Sousa (2009), Una epistemología desde el Sur, México: CLACSO y Siglo XXI.

Hirschberger, J., (1965). História de la filosofía: Tomo I antigüedad, edad media y renacimiento. Segunda edición. Barcelona: Editorial Herder.