Redacción ‘MS’- Mutualidad de la Abogacía, entidad aseguradora sin ánimo de lucro que ofrece a los profesionales del derecho y a sus familias soluciones para cubrir todas sus necesidades de previsión y ahorro, se ha convertido hoy en la primera entidad que se incorpora como socio institucional a OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial
La entidad, que ya era pionera en el estudio de esta tecnología a través de su Comité de Ética en Inteligencia Artificial, da un paso más en ese compromiso al integrarse en esta iniciativa independiente y multidisciplinar que persigue abrir el debate a toda la sociedad.
Mutualidad de la Abogacía ha considerado que los objetivos de OdiseIA, que incluye la concienciación sobre el impacto ético de esta disrupción tecnológica, están perfectamente alineados con los de la propia entidad. En este sentido, el Comité de Ética de la Inteligencia Artificial (CEIA) de la Mutualidad, creado en septiembre de 2019, tiene como misión vigilar los usos e impactos de la Inteligencia Artificial en la Mutualidad, garantizando que la recopilación, el alojamiento y el uso de los datos se realicen de manera ética, transparente y democrática para responder a la posición marcada por la Mutualidad y las instituciones competentes.
Por su parte, OdiseIA, espacio de pensamiento, debate y acción con expertos de máximo nivel, desde Nuria Oliver, doctora del Massachussetts Institue of Technology (MIT) nombrada Data Scientist 2019, hasta Ángel Gómez de Ágreda, coronel del Ejército que ha sido jefe de cooperación del Mando Conjunto de Ciberdefensa, enriquece esa visión con las funciones de difusión e investigación, y con la creación de un espacio de debate público (comunidad) necesario para la reflexión colectiva sobre la Inteligencia Artificial.
Una ética programada
Con esta decisión, Mutualidad de la Abogacía se convierte en la primera entidad que se integra en OdiseIA como socio institucional.
“La inteligencia artificial está cada vez más presente en la forma en que nos relacionamos con el mundo, y también en la toma de decisiones. Por ello debemos aplicar a esa inteligencia artificial el mismo criterio, los mismos valores y principios éticos, que aplicábamos a las decisiones que tomábamos sin esta tecnología. Al ser una ética programada, matemática, debemos supervisar sus sesgos y comprobar que las decisiones que toma son justas y éticas”.
Enrique Sanz Fernández-Lomana, presidente de la Mutualidad.
OdiseIA es un punto de encuentro multidisciplinar y también una red de profesionales de diferentes sectores que se enfrentan a retos similares aunque siempre buscando impulsar la IA desde su uso responsable y ético.
“Creemos que sólo llegaremos a construir una inteligencia artificial confiable si sumamos fuerzas de expertos de diferentes disciplinas. Por ello, damos la bienvenida a Mutualidad Abogacía, con quien -junto a universidades, empresas y organizaciones públicas y privadas de distintos sectores- es un orgullo servir como altavoz para resaltar las buenas prácticas de la inteligencia artificial y mitigar las repercusiones sociales negativas de su uso. Llamamos a la acción a toda organización o empresa que crea en estos principios para que se una como socio. Sólo así conseguiremos sacar el máximo provecho a las innumerables ventajas que tiene la Inteligencia Artificial, dejando de lado sus también potentes desventajas”.
Idoia Salazar, presidenta de OdiseIA.
Sesgos y prejuicios
Junto con los sectores de salud, transporte y defensa, el sector del seguro es uno de los más expuestos a los efectos secundarios no-deseados de la Inteligencia Artificial por su impacto en la vida de las personas, es por ello que es importante poner el foco en el uso ético de la Inteligencia Artificial. OdiseIA y la Mutualidad de la Abogacía colaborarán en la generación de buenas prácticas que sirvan como guía para el sector en España, así como en diferentes actividades que fomenten la conversación sobre IA responsable entre las aseguradoras.
Estudios y experimentos recientes han demostrado que los algoritmos de identificación de imágenes tienen importantes sesgos racistas, sexistas y de otros tipos como los relacionados con el lugar de residencia o la edad del sujeto, que trasladan prejuicios plenamente humanos a decisiones supuestamente automatizadas y por tanto neutrales a priori mediante fórmulas matemáticas. A juicio de los expertos, garantizar la construcción ética y garantista de los algoritmos que van a tomar decisiones en décimas de segundo sobre un perfil individual es el gran reto al que se enfrenta esta disruptiva tecnología.