Prosegur refuerza su compromiso con el uso ético y responsable de la Inteligencia Artificial

Prosegur, grupo líder en seguridad en España, ha dado un paso más en su propósito de cuidar a las personas y las empresas, publicando la primera Política de Inteligencia Artificial Responsable aplicable a todos los países en los que opera. Su objetivo es garantizar los derechos y las libertades de todas las personas que pudieran verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, además de establecer las bases que regirán su aplicación en todos los proyectos que la incorporen.

De esta manera, la compañía pone de manifiesto su interés en continuar utilizando la tecnología más puntera en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.

“Aunque la aplicación de la Inteligencia Artificial (IA) conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica Miguel Soler, Presidente del Comité de IA Responsable y Director Legal y Cumplimiento del Grupo Prosegur. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.

Para prevenir y controlar esos posibles riesgos, desde Prosegur se ha instaurado un procedimiento que establece que la IA desarrollada o adquirida por la compañía debe seguir tres pilares y, por lo tanto, definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales).

“El uso de la Inteligencia Artificial está creciendo día a día, y de manera especial en la parte de soluciones de vídeo analítica, tal y como hemos podido detectar en Prosegur. Con esta nueva política de uso responsable de la IA queremos sumarnos a otras grandes compañías que ubican a la tecnología en el centro de sus operaciones, pero pretendemos hacerlo de una manera ética, lícita y robusta, como indica nuestra normativa”, declara Soler.

Principios éticos, requisitos clave y metodología

Para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, con los que se pretende mejorar el bienestar individual y colectivo y que deben estar presentes en todos los proyectos de IA de Prosegur. Estos principios son, por un lado, el respeto a la autonomía humana y la garantía de que se realizará un control sobre los procesos de trabajo de los sistemas de IA para potenciar y complementar las aptitudes de las personas. Otro de los principios será la prevención del daño, con el que se garantiza que los sistemas de IA no perjudicarán a nadie ya que serán lo suficientemente seguros y robustos desde un punto de vista técnico. Asimismo, resaltan el principio de equidad para garantizar una distribución justa e igualitaria de sus beneficios y costes y la posibilidad de oponerse a las decisiones adoptadas por los sistemas de IA. Y, por último, destaca el principio de explicabilidad, que implica que todos los procesos de desarrollo de IA sean transparentes y se comunican de manera clara.

También se han pautado una serie de requisitos para garantizar que se trata de un sistema de Inteligencia Artificial Responsable, aplicables durante todo el ciclo de vida de estos procesos. En este sentido, debe activarse la supervisión humana para garantizar que los procesos sean seguros y se basen en una técnica sólida. Además, la gestión de los datos debe ser sólida para poder prevenir el daño a la privacidad, siendo un sistema transparente y que garantice la inclusión, la diversidad y la igualdad de acceso, además del bienestar ambiental y social. Por último, también será relevante la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados.

Por otro lado, la compañía también ha elaborado una metodología específica para aplicar esta política, diseñada de una manera muy pormenorizada. En primer lugar, el responsable de proyecto expondrá el modelo de negocio y la finalidad de la solución presentada. Posteriormente, el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución de IA y definirá los requisitos que se van a evaluar. Contando con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución y, por último, el operador de Inteligencia Artificial ejecutará y supervisará la solución.

De esta manera, se podrá defender el propósito de respetar los valores éticos y morales y garantizar el complimiento de las normas, promoviendo la utilización de la tecnología mediante el desarrollo y la adquisición de soluciones de Inteligencia Artificial.

Tu opinión enriquece este artículo:

“Your Friends Are Boring” se alza como ganadora en el foro de inversión del Seed Startup Program

“Your Friends Are Boring” se ha alzado como ganadora del Seed Startup Program, impulsado por València Innovation Capital y Startup Valencia. La startup valenciana, fundada por Clara Haba y Amaury de Castelnau, organiza viajes grupales que conectan a personas con intereses afines a través de experiencias compartidas. Su enfoque creativo, el modelo de negocio que reinventa el turismo experiencial con impacto social y los hitos alcanzados desde su MVP y sus primeros viajes le han permitido destacar entre las más de 28 participantes de esta edición.

Tres de cada diez consumidores en España ya son ‘Eco-actives’

Los consumidores Eco-Actives —aquellos más comprometidos con un estilo de vida sostenible— han crecido en España hasta el 30% (frente al 28% en 2024), superando la media global del 23%. Este grupo representa ya un valor aproximado de 28.800 millones de dólares en gran consumo, lo que supone una oportunidad significativa para las marcas, según nuestro informe “Who Cares, Who Does?”.

Opera abre el acceso público a Opera Neon, su navegador experimental con IA agéntica

Opera [NASDAQ: OPRA], empresa innovadora en navegadores e IA agéntica, abre el acceso público a Opera Neon. Opera Neon es el navegador experimental de Opera para usuarios avanzados de IA que quieren acceder y aprovechar al máximo las últimas tecnologías de IA. Desde el 2 de octubre, Opera Neon estaba disponible en una fase privada para “fundadores” que ha permitido a la compañía trabajar con su comunidad e incorporar su retroalimentación. A partir de hoy, se elimina la lista de espera, y la suscripción a Opera Neon queda abierta para todos los públicos. 

Kelly Clarkson, encabezará el show de apertura en el NFL Christmas Gameday de Netflix

La superestrella ganadora de múltiples premios Emmy y Grammy y reputada presentadora de programas de entrevistas, Kelly Clarkson, encabezará el show de apertura del NFL Christmas Gameday en Netflix, llevando su potente voz y su contagioso espíritu festivo a las pantallas de todo el mundo. Clarkson está lista para cautivar a los fans esta Navidad con su éxito ‘Underneath the Tree’ e iniciar el Día de Navidad con una energía y alegría inolvidables, haciendo de esta una celebración navideña que los aficionados no querrán perderse.

Arcade abrirá en Madrid su primer local (ocio competitivo, una propuesta gastronómica y servicio de alto nivel)

F1® Arcade, el primer concepto oficial de Fórmula 1® hospitality experiencial del mundo, ha anunciado la apertura de su primer local en España en Paseo de la Castellana 103 a principios de 2026. El nuevo venue de 1.500 m² y dos plantas contará con 71 simuladores dinámicos de última generación diseñados exclusivamente para F1® Arcade, dos espacios VIP, una espectacular barra de 12 metros, espacios pensados para grupos y eventos y una zona social diseñada para recrear la emoción de la F1 mientras se disfruta de una carta de cocteles únicos y un menú con inspiración internacional.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.