Prosegur refuerza su compromiso con el uso ético y responsable de la Inteligencia Artificial

Prosegur, grupo líder en seguridad en España, ha dado un paso más en su propósito de cuidar a las personas y las empresas, publicando la primera Política de Inteligencia Artificial Responsable aplicable a todos los países en los que opera. Su objetivo es garantizar los derechos y las libertades de todas las personas que pudieran verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, además de establecer las bases que regirán su aplicación en todos los proyectos que la incorporen.

Image description

De esta manera, la compañía pone de manifiesto su interés en continuar utilizando la tecnología más puntera en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.

“Aunque la aplicación de la Inteligencia Artificial (IA) conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica Miguel Soler, Presidente del Comité de IA Responsable y Director Legal y Cumplimiento del Grupo Prosegur. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.

Para prevenir y controlar esos posibles riesgos, desde Prosegur se ha instaurado un procedimiento que establece que la IA desarrollada o adquirida por la compañía debe seguir tres pilares y, por lo tanto, definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales).

“El uso de la Inteligencia Artificial está creciendo día a día, y de manera especial en la parte de soluciones de vídeo analítica, tal y como hemos podido detectar en Prosegur. Con esta nueva política de uso responsable de la IA queremos sumarnos a otras grandes compañías que ubican a la tecnología en el centro de sus operaciones, pero pretendemos hacerlo de una manera ética, lícita y robusta, como indica nuestra normativa”, declara Soler.

Principios éticos, requisitos clave y metodología

Para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, con los que se pretende mejorar el bienestar individual y colectivo y que deben estar presentes en todos los proyectos de IA de Prosegur. Estos principios son, por un lado, el respeto a la autonomía humana y la garantía de que se realizará un control sobre los procesos de trabajo de los sistemas de IA para potenciar y complementar las aptitudes de las personas. Otro de los principios será la prevención del daño, con el que se garantiza que los sistemas de IA no perjudicarán a nadie ya que serán lo suficientemente seguros y robustos desde un punto de vista técnico. Asimismo, resaltan el principio de equidad para garantizar una distribución justa e igualitaria de sus beneficios y costes y la posibilidad de oponerse a las decisiones adoptadas por los sistemas de IA. Y, por último, destaca el principio de explicabilidad, que implica que todos los procesos de desarrollo de IA sean transparentes y se comunican de manera clara.

También se han pautado una serie de requisitos para garantizar que se trata de un sistema de Inteligencia Artificial Responsable, aplicables durante todo el ciclo de vida de estos procesos. En este sentido, debe activarse la supervisión humana para garantizar que los procesos sean seguros y se basen en una técnica sólida. Además, la gestión de los datos debe ser sólida para poder prevenir el daño a la privacidad, siendo un sistema transparente y que garantice la inclusión, la diversidad y la igualdad de acceso, además del bienestar ambiental y social. Por último, también será relevante la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados.

Por otro lado, la compañía también ha elaborado una metodología específica para aplicar esta política, diseñada de una manera muy pormenorizada. En primer lugar, el responsable de proyecto expondrá el modelo de negocio y la finalidad de la solución presentada. Posteriormente, el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución de IA y definirá los requisitos que se van a evaluar. Contando con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución y, por último, el operador de Inteligencia Artificial ejecutará y supervisará la solución.

De esta manera, se podrá defender el propósito de respetar los valores éticos y morales y garantizar el complimiento de las normas, promoviendo la utilización de la tecnología mediante el desarrollo y la adquisición de soluciones de Inteligencia Artificial.

Tu opinión enriquece este artículo:

Wayra invierte en LuxQuanta para liderar el futuro de las comunicaciones seguras en la era cuántica

Wayra, el corporate venture capital de Telefónica, invierte en LuxQuanta, la deeptech especializada en ciberseguridad cuántica, como parte de una ronda de inversión de 8 millones de euros donde también se han unido otros inversores como Big Sur Ventures, A&G, GMV, el European Innovation Council (EIC), Corning y GTD. Con este paso, Wayra refuerza la confianza del ecosistema en el potencial de la tecnología de Distribución Cuántica de Clave (QKD) y en el papel de LuxQuanta como líder europeo en ciberseguridad cuántica.

LuxQuanta capta 8 millones de euros en financiación de Serie A para acelerar el despliegue global de soluciones de ciberseguridad cuántica

LuxQuanta, compañía deep tech especializada en ciberseguridad cuántica, anuncia el éxito de una ronda de financiación Serie A por valor de 8 millones de euros. Liderada por Big Sur Ventures, y con el soporte de A&G como mayor inversor, la ronda incluye a los nuevos inversores GMV, Wayra y EIC Fund, junto con el renovado compromiso de los inversores actuales Corning y GTD. La operación se refuerza con la financiación blanda del European Innovation Council (EIC) a través del programa EIC Accelerator, tras la subvención de 2,5 millones de euros concedida a LuxQuanta en marzo de 2024.

El 70% de las empresas obtiene más retorno del esperado con la IA, pero solo el 47% tiene estrategia clara

IFS, compañía líder en software e IA industrial, presenta los resultados de su estudio global “IFS Invisible Revolution Study 2025”. El informe advierte de la «brecha de ejecución de la IA»: las empresas están incorporando inteligencia artificial más rápido de lo que sus equipos logran adaptarse, lo que frena su aplicación plena. En cifras, la adopción de la IA industrial casi se ha duplicado en un año pasando del 32% al 59%

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.