Publicidad
Conferencia “IA: desafíos teóricos, políticos y epistemológicos para las Ciencias Sociales” CULTURA

Conferencia “IA: desafíos teóricos, políticos y epistemológicos para las Ciencias Sociales”

Publicidad


Conferencia “IA: desafíos teóricos, políticos y epistemológicos para las Ciencias Sociales”

  • Vía Youtube. 
  • Jueves 16 de mayo – 10:00 a 13:00 horas.

En el contexto del Doctorado en Comunicación y la DIBRI, la académica argentina Flavia Costa impartirá esta conferencia.

Para la autora del Tecnoceno (Taurus, 2021), la expansión de las inteligencias artificiales (IA) no alude a una tecnología, sino que se trata de “metatecnologías” y un “mundoambiente” que comprende acontecimientos de alto riesgo que requieren de un tratamiento sobre los ciclos de vida, dejando al descubierto un mapa convulso sobre los gobiernos de la vida cotidiana.

A partir del desarrollo y la disponibilidad masiva de modelos de lenguaje grandes como ChatGPT o LaMDA, se ha producido un impacto radical hacia una nueva geopolítica de los riesgos. La literatura advierte sesgos, datos inadecuados o mal interpretados.

También se consigna la suplantación de identidad, el deep fake o la desinformación (ya provenga de humanos o de máquinas), la vigilancia, la manipulación del comportamiento y la securitización del conocimiento (que significa que el conocimiento experto queda en manos de cada vez menos personas). En suma, la epidemiología del riesgo atenta en la calidad de las democracias, cuestión que está siendo investigada desde perspectivas, disciplinas y ámbitos poco comunicados entre sí.

En el marco de los “Desafíos e impactos de la inteligencia artificial”, Flavia Costa ha establecido preguntas de fronteras sobre el dogma de expertos que solo identifican en el campo de las ciencias sociales, respuestas normativas y prevenciones en el marco del derecho. No se trata de un emplazamiento reactivo. Hasta ahora, las iniciativas de ética de la IA han producido principios y declaraciones de valores que prometen guiar la acción, pero en la práctica brindan tibias recomendaciones y no abordan políticas fundamentales y perspectivas sistémicas.

En suma, dado que en muchos casos las tecnologías de IA pueden ser de alto riesgo, la aseguración (safety) debe ser preventiva y no ceder a una posteridad. En los sistemas sociotécnicos complejos, la evaluación de riesgos y el monitoreo de seguridad es parte de todo el ciclo de vida del sistema.

La seguridad de la IA es un campo emergente en el que hay poca casuística, será importante seguir de cerca el proceso que está llevando adelante el monitor de incidentes de IA que recientemente puso en marcha la OCDE. Aunque el enfoque jurídico-normativo es fundamental para abordar el impacto de las IA, ya que estas metatecnologías pueden afectar derechos consagrados (a la privacidad, a la propiedad intelectual, a la protección del trabajo, entre otros), no es suficiente si de lo que se trata es de alcanzar una IA fiable, y segura (safe).

Para Flavia Costa, la complementación de la ética con un enfoque sistémico, que reponga -donde hay alto riesgo- las mediaciones que la aceleración se saltea, y establezca procedimientos de revisión transparentes, estructuras de rendición de cuentas vinculantes, documentación de modelos y conjuntos de datos y auditoría independiente. En suma, se requieren defensas sustentables para convivir e incluso coevolucionar con las IA de modo más seguro y confiable.

  • Para saber más de lo que está pasando en el mundo de la ciencia y la cultura, súmate a nuestra comunidad Cultívate, el Newsletter de El Mostrador sobre estos temas. Inscríbete gratis AQUÍ.
Publicidad

Tendencias