Publicidad
Inteligencia Artificial: la nueva era de investigación científica Opinión

Inteligencia Artificial: la nueva era de investigación científica

Publicidad
Heber Leal y Joaquin Giannotti
Por : Heber Leal y Joaquin Giannotti Director y académico del Núcleo de Ciencias Sociales y Artes, Universidad Mayor.
Ver Más

No podemos permitirnos el lujo de la pereza intelectual y simplemente esperar las consecuencias. Debemos sumergir las manos en las máquinas, estar presentes en los laboratorios, ser parte activa de los procesos.


El modelo más reciente de OpenAI, o1, está causando sensación por sus sorprendentes resultados. En los exámenes clasificatorios de la Olimpiada Internacional de Matemáticas resolvió el 83% de los problemas, en comparación con el 13% de su predecesor, GPT-4o. En tanto, en tareas de física, química y biología está rindiendo a la par de expertos con nivel de doctorado. Impresionante, ¿verdad?

El arribo de o1 marca un hito en la evolución de la IA, al ser parte de una línea más sofisticada que emplea técnicas de “aprendizaje por refuerzo”. De este modo, puede abordar problemas de manera más autónoma, sin depender tanto de los patrones de entrenamiento previos, lo que lo hace especialmente valioso para la investigación científica y otras áreas complejas.

Hasta hoy nadie puede negar los beneficios potenciales de integrar la IA en la investigación científica, ya que las mejoras en procesamiento y comprensión contextual han permitido que no solo resuelva problemas sino que también ayude a plantear nuevas preguntas, lo cual es un giro profundo en la forma en que se concibe la ciencia.

Sin embargo, por poderosos que sean los modelos como o1, también aumentan la necesidad de un uso responsable y ético, particularmente en este ámbito, pues la discusión no se trata solo de cumplir con regulaciones, sino que también de incorporar principios éticos en el núcleo del uso de la IA.

Así, en lugar de fijarnos únicamente en los resultados, debemos adoptar un enfoque “virtuoso” que enfatice en las responsabilidades que los agentes humanos deben asumir al utilizar la IA. ¿Qué principios éticos debemos seguir para servir al bien común? ¿Cómo podemos fomentar un futuro impulsado por la IA que sea justo, responsable y beneficioso para la sociedad?

Aquí es donde entra una reflexión crucial: el avance de la IA es sistemático y gradual, y si realmente queremos hacer una ética o filosofía de la IA, no podemos adoptar una actitud pasiva. No podemos permitirnos el lujo de la pereza intelectual y simplemente esperar las consecuencias. Debemos sumergir las manos en las máquinas, estar presentes en los laboratorios, ser parte activa de los procesos.

Este involucramiento debe ser guiado por una “sabiduría conectada y crítica”, que combine precaución con comprensión profunda. Solo así podremos evitar el error de observar desde una atalaya intelectual con negatividad, y en su lugar, convertirnos en agentes responsables de esta transformación tecnológica.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad

Tendencias