Una tarea que requiere de debate y definiciones sobre los responsables de sostener esta arista, que exige esfuerzos conjuntos en los distintos niveles de las organizaciones.
Probablemente, dentro de las proyecciones para 2025, nos hayamos encontrado con un espacio dedicado al futuro y desarrollo de la inteligencia artificial (IA). Y es que la IA se ha consolidado como una de las herramientas más transformadoras de nuestra era.
No es secreto que su capacidad para optimizar procesos, analizar datos y generar soluciones en tiempo real está redefiniendo industrias y sociedades. Sin embargo, este avance acelerado también ha planteado riesgos y un desafío ético muy importante.
¿Cómo estamos impulsando su desarrollo responsable? En Chile, esta parece ser una tarea todavía incipiente, donde hay mucho por hacer.
Parte de la tarea pendiente queda en evidencia a partir de los resultados del estudio “Inteligencia Artificial Responsable”, que impulsamos desde PwC Chile, junto al Centro de Ética y Responsabilidad Empresarial del ESE Business School, encuestando a más de 600 ejecutivos y directores de empresas en Chile para conocer tendencias y percepciones sobre IA y ética, trayendo al país un estudio que realiza PwC a nivel internacional.
De acuerdo con sus resultados, vemos que, si bien la adopción de la IA está extendida en el mundo corporativo local (73% dice que la empresa ha adoptado esta herramienta en algún nivel), solo un 9% dice que su organización cuenta con un marco ético para el desarrollo de la IA.
Esto adquiere relevancia si miramos el alcance que ha tenido y los riesgos asociados a esta materia, como los ataques cibernéticos o un uso poco apropiado de información personal.
¿Cuál es la forma? Todavía parece no haber consenso ni un enfoque formal para la identificación de riesgos en el uso de la IA. Se ha generado un debate a nivel de altos directivos entre quienes prefieren fijar los límites éticos por leyes o medidas similares (41%) y quienes estiman que debiese hacerlo cada organización en particular (40%).
En esta línea, vemos que la tendencia a la autorregulación predomina entre las empresas que cuentan con un marco ético para el uso de IA (51%), mientras que se observa una inclinación mayor a la regulación por ley entre empresas con menor grado de aplicación de principios éticos (56%).
Independientemente de la decisión que se tome, es fundamental que las empresas avancen hacia protocolos que resguarden el uso eficiente y ético de la IA. De hecho, un reciente artículo de PwC profundiza en el rol que tendrá la IA en 2025 y explica que el uso de la IA Responsable tendrá impacto en el ROI y el crecimiento sostenible.
Una tarea que requiere de debate y definiciones sobre los responsables de sostener esta arista, que exige esfuerzos conjuntos en los distintos niveles de las organizaciones.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.