Lanzamiento del Instituto Privado de Investigación Colaborativa de IA
diciembre 4, 2020Avast, productos de seguridad digital y privacidad y Borsetta, empresa de servicios de hardware informático seguro de IA; anunciaron que se unirán a Intel para lanzar el Instituto Privado de Investigación Colaborativa de IA (Private AI Collaborative Research Institute). El propósito de la colaboración será avanzar y desarrollar tecnologías que fortalezcan la privacidad y la confianza para la IA descentralizada.
Origen
El Instituto privado de IA (Private AI Institute), fue creado por la Oficina de Investigación y Colaboración Universitaria (URC) de Intel. Éste amplió el potencial de colaboración del Instituto invitando a Avast y Borsetta a unir fuerzas.
Por lo cual, en conjunto emitieron una convocatoria de propuestas de investigación a principios de este año y seleccionaron los primeros nueve proyectos de investigación.
Contarán con el apoyo del Private AI Collaborative Research Institute en ocho universidades:
- Carnegie Mellon University, U.S.A. University of:
- California, San Diego, U.S.A.
- Southern California, U.S.A.
- Toronto, Canadá
- Waterloo, Canadá
- Technical University of Darmstadt, Alemania
- Université Catholique de Louvain, Bélgica
- National University of Singapore, Singapur
Objetivo
El Instituto Privado de Investigación Colaborativa de IA, fomentará y apoyará la investigación fundamental en la resolución de los desafíos del mundo real para la sociedad; y adoptará un enfoque ético para el desarrollo de la IA.
Mediante la descentralización de la IA y el traslado de análisis de IA al borde de la red; las empresas tienen como objetivo liberar datos de los silos, proteger la privacidad y la seguridad, además de mantener la eficiencia.
Por lo anterior, tendrá como objetivo superar los desafíos que enfrentan las industrias y las sociedades en la actualidad. Esto incluye, pero no se limita a:
- Los datos de entrenamiento se descentralizan en silos aislados y a menudo son inaccesibles para el entrenamiento centralizado.
- Las soluciones actuales que requieren un único centro de datos de confianza son frágiles; el entrenamiento centralizado puede ser fácil de atacar modificando datos en cualquier lugar entre la recopilación y la nube. No existe un marco para la formación segura descentralizada entre los participantes desconfiados.
- Los modelos centralizados se vuelven obsoletos rápidamente a medida que los datos en el borde cambian con frecuencia. Hoy en día, los ciclos de lote poco frecuentes para la recopilación, la formación y la implementación pueden dar lugar a modelos obsoletos; no es posible el reentrenamiento continuo y diferencial.
- Los recursos informáticos centralizados son costosos y limitados por la comunicación y la latencia.
- El aprendizaje automático federado, técnica utilizada para entrenar un algoritmo en múltiples dispositivos perimetrales descentralizados, es limitada. Aunque la IA federada puede acceder a los datos en el perímetro, no puede garantizar simultáneamente la precisión, la privacidad y la seguridad.
Cabe destacar que Borsetta se ha unido al Instituto Privado de Investigación Colaborativa de IA debido a su creencia; de impulsar un marco de preservación de la privacidad para apoyar el futuro de un mundo hiperconectado potenciado por la IA.
Si deseas más información sobre inteligencia artificial consulta este enlace
Los comentarios están cerrados.