La Comisión Europea (CE) publicó una guía para que empresas, instituciones y entidades puedan realizar una autoevaluación sobre el funcionamiento ético de sus herramientas que hagan uso de Inteligencia Artificial. (ESPECIAL)
La Comisión Europea (CE) publicó una guía para que empresas, instituciones y entidades puedan realizar una autoevaluación sobre el funcionamiento ético de sus herramientas que hagan uso de Inteligencia Artificial (IA).
El documento, bautizado como Lista de Evaluación para una Inteligencia Artificial Fiable (ALTAI, por sus siglas en inglés), pretende que la ciudadanía europea pueda beneficiarse de esta tecnología sin incurrir en "riesgos innecesarios".
Los siete pilares sobre los que se articula el documento son: supervisión humana, seguridad, privacidad y soberanía de datos, transparencia, diversidad, bienestar social y responsabilidad.
El trabajo se deriva de los recientes avances del Grupo de Expertos en IA, un organismo dependiente de la Comisión que ya presentó un borrador del libro blanco sobre esta tecnología el pasado febrero para poner las bases de su desarrollo futuro.
Algunos de los riesgos que se busca evitar a través de la guía son la posible violación de la privacidad de los ciudadanos, la discriminación por motivos raciales o de género y la capacidad de resistencia ante ciberataques.
Precisamente el creciente interés en esta tecnología, ejemplificado en las alegaciones presentadas al libro blanco en los últimos meses, resulta clave a la hora de regular éticamente su desarrollo, según el Ejecutivo.
"Más de 1,200 contribuciones a la consulta pública del libro blanco en IA demuestran la importancia que para la ciudadanía tienen este tipo las iniciativas políticas", expresó en un comunicado el comisario de Mercado Interior, Thierry Breton.