Informe: Explorando la Intersección entre Inteligencia Artificial y CienciasBiológicas: Enfoque en usos y desafíos

Por: Michelle Bruno

Resumen
La integración de la inteligencia artificial (IA) en las ciencias de la vida ha generado un panorama transformador con grandes oportunidades para la innovación científica, la automatización de procesos y el desarrollo de aplicaciones en ámbitos como la bioseguridad, la biodefensa, la biología sintética y la preparación ante pandemias. Sin embargo, la rápida evolución de estas tecnologías también plantea importantes desafíos relacionados con riesgos biológicos derivados de sus potenciales usos duales.

En este estudio se llevó a cabo una revisión sistemática de la literatura publicada en español e inglés entre febrero de 2024 y abril de 2025 en la base de datos PubMed, combinando términos como “Artificial Intelligence” y “Machine Learning” con “Biosafety”, “Biosecurity”, “Biodefense”, “Global Health Security”, “Pandemic Preparedness” e “Infectious Disease Outbreaks”, con el fin de identificar los avances más relevantes y las herramientas emergentes en esta intersección tecnológica. De manera complementaria, se encuestó a profesionales de ciencias de la vida para evaluar el uso actual de la IA, las percepciones de riesgo y las necesidades en este campo.

Entre los avances más destacados se observaron modelos de aprendizaje profundo capaces de anticipar dinámicas epidemiológicas con hasta tres semanas de antelación, plataformas para el diseño de proteínas que generan candidatos terapéuticos en cuestión de horas y sistemas automatizados de supervisión de protocolos en laboratorios de alta contención con precisiones superiores al 95 %. Además, al comparar modelos de lenguaje de gran tamaño (LLMs) con expertos humanos en virología, biomedicina y bioinformática, se observó que estos algoritmos alcanzan rendimientos similares o incluso superiores en tareas especializadas. Sin embargo, ejercicios de red-teaming revelaron que sin las salvaguardas adecuadas estos LLMs pueden facilitar a usuarios sin conocimientos técnicos la elaboración de propuestas complejas, lo que, de no implementarse contramedidas adecuadas, podría elevar la probabilidad anual de pandemias diseñadas de un 0.3% a un 1.5%.

Las encuestas mostraron que el 65% de los profesionales utiliza rutinariamente herramientas como ChatGPT para análisis de riesgos biológicos, generación de proyectos y diseño experimental, pero menos de una cuarta parte de estos cuenta con formación específica en evaluaciones de desempeño, prácticas de ciberbioseguridad o marcos regulatorios asociados. Este desajuste entre la adopción masiva y la comprensión técnica y normativa crea entornos vulnerables en los que la desintermediación de barreras esenciales puede facilitar tanto innovaciones legítimas como usos maliciosos.

Para reducir esta brecha, el informe propone impulsar una formación continua e integral en IA y ética, especialmente dirigida a profesionales y tomadores de decisiones; desarrollar evaluaciones objetivas de modelos en escenarios reales; promover mecanismos de gobernanza anticipatoria, que incluyan auditorías independientes y simulaciones de uso dual; y crear espacios de innovación segura con protocolos de trazabilidad y sandboxing. Asimismo, se recomienda reforzar la participación de los países subrepresentados en foros internacionales y orientar el financiamiento hacia proyectos que incorporen desde su diseño métricas claras de seguridad, equidad y transparencia. Solo así se cree que será posible aprovechar plenamente el potencial transformador de la IA sin comprometer la seguridad global.

Agradecimientos

Deseamos expresar nuestro más sincero agradecimiento a todas las personas expertas que participaron respondiendo las encuestas sobre el uso de inteligencia artificial en su vida profesional. Su colaboración fue fundamental para comprender cómo estas tecnologías emergentes están siendo implementadas en contextos reales por quienes desempeñan un papel clave en su aplicación responsable y segura.

Asimismo, extendemos nuestro reconocimiento a las instituciones, redes y proyectos que han contribuido directa o indirectamente al desarrollo de los trabajos que fundamentan este reporte. Su labor ha sido esencial no solo para generar conocimiento, sino también para impulsar agendas estratégicas que buscan dar forma a un futuro donde la inteligencia artificial se utilice de manera ética, inclusiva y alineada con los principios de bioseguridad, bioprotección e innovación responsable.

Este esfuerzo colectivo refleja el compromiso compartido de construir marcos de gobernanza más sólidos, fomentar la colaboración interdisciplinaria y promover el desarrollo de capacidades que permitan afrontar los desafíos emergentes en la convergencia entre IA y ciencias biológicas.


Siguiente
Siguiente

Nuevo artículo: La securitización de la inteligencia artificial: un análisis de sus impulsores y sus consecuencias