FICO impulsa el uso de IA responsable en servicios financieros

Las instituciones financieras que integraron modelos de inteligencia artificial responsable en sus procesos de toma de decisiones durante el último año les permitió generar predicciones más precisas y responder a contextos económicos cambiantes.

Así lo consideraron expertos de la empresa FICO quienes explicaron que la inteligencia artificial responsable implica seguir principios y estándares corporativos en el desarrollo de modelos de IA.

Recordaron que hace más de 20 años la empresa se fundó con la premisa de usar datos para eliminar sesgos en las decisiones crediticias. Su propuesta consistió en un enfoque transparente basado en matemáticas, sin intervención de prejuicios humanos subjetivos.

Actualmente la compañía plantea un futuro donde los líderes empresariales definan sus objetivos estratégicos y la IA perfeccione de forma continua la lógica de las decisiones para alcanzarlos.

Rafael Caballero, director de consultoría de FICO para México, explicó que la plataforma de la empresa refleja innovaciones que combinan experiencia y visión colectiva. Señaló que la herramienta fue diseñada para adaptarse a cambios rápidos en los mercados.

Principios de la inteligencia artificial responsable según FICO

La compañía sostiene que el uso de la inteligencia artificial requiere una base de premisas. Entre ellas, la idea de IA robusta, que implica metodologías de desarrollo definidas, uso de datos históricos adecuados, pruebas de estabilidad y gobernabilidad.

Otro eje que destacó la firma es la IA explicable, donde la transparencia de los modelos debe ser el objetivo principal. La meta es responder a preguntas sobre la construcción correcta de los sistemas y la identificación de riesgos en su uso.

La IA ética constituye otra de las premisas centrales, ya que busca un desarrollo riguroso que permita detectar y eliminar sesgos. Según la empresa, esto se logra mediante procesos de revisión y visibilidad de características aprendidas por los modelos.

Auditoría y registro de los modelos corporativos

La IA auditable completa la visión de FICO y consiste en crear modelos con estándares definidos en toda la empresa, arquitecturas aprobadas y variables autorizadas. Esto incluye auditorías y documentación para reducir errores en la producción.

Con este enfoque, la compañía busca garantizar que la inteligencia artificial responsable se materialice en modelos documentados y con registros inmutables que validen el desarrollo durante todas sus fases.

En videoconferencia FICO también presentó el concepto de inteligencia aplicada, entendido como la combinación de inteligencia artificial y juicio humano. La meta es transformar datos y analítica en decisiones de negocio en tiempo real.

El esquema “human-in-the-loop” busca que los humanos participen en ciclos de decisiones automatizadas de la IA. Esto permite revisar, validar o ajustar resultados antes de su ejecución, especialmente en riesgo crediticio o fraudes.

Luis Silvestre, domain pre-sales principal consultant de FICO, señaló que la innovación en IA debe acompañarse de preparación ante regulaciones. Indicó que marcos legales de regiones como Europa podrían definir estándares de transparencia y gobernanza.

Las organizaciones que adopten modelos con human-in-the-loop y principios de inteligencia artificial responsable alinearán sus procesos con regulaciones futuras. También aumentarán la eficiencia al combinar velocidad de algoritmos y experiencia humana.

El evento de FICO expuso que la inteligencia artificial responsable y la inteligencia aplicada ya forman parte de las agendas de innovación empresarial. La plataforma de la compañía busca mostrar un camino hacia decisiones estratégicas más humanas y transparentes.

50

Error happened.
Redacción:

Esta web usa cookies.