Intervenants

 

Irina Rish

Irina Rish est professeure agrégée au Département d’Informatique et de Recherche Opérationnelle (DIRO) de l’Université de Montréal (UdeM) et membre du corps professoral du MILA – Institut québécois d’intelligence artificielle. Elle est titulaire de la Chaire d’Excellence en Recherche du Canada (CERC) en IA autonome et de la Chaire d’IA de l’Institut Canadien de Recherches Avancées (ICRA). Elle a obtenu sa maîtrise et son doctorat en IA à l’Université de Californie, Irvine, et sa maîtrise en mathématiques appliquées à l’Institut Gubkin de Moscou. Les recherches du Dre. Rish portent sur l’apprentissage automatique, l’analyse des données neuronales ainsi que l’IA inspirée par les neurosciences. Avant de rejoindre l’UdeM et le MILA en 2019, Irina était chercheuse au centre de recherche IBM T.J. Watson, où elle a travaillé sur divers projets à l’intersection des neurosciences et de l’IA, et a dirigé le défi Neuro-AI. Elle a reçu plusieurs prix, notamment le prix IBM Eminence & Excellence,le prix IBM Outstanding Innovation en 2018, le prix IBM Outstanding Technical Achievement en 2017, et le prix IBM Research Accomplishment en 2009. Dre. Rish détient 64 brevets et a publié plus de 80 articles de recherche dans des conférences et des revues évaluées par des pairs, plusieurs chapitres de livres, trois livres édités et une monographie sur la modélisation parcimonieuse.

Conférence : Se souvenir de la leçon amère : passer à l’échelle est-elle « la seule chose dont vous avez besoin » pour construire l’intelligence artificielle généralisée (IAG) ?

Les systèmes d’IA modernes ont obtenu des résultats impressionnants dans de nombreux domaines allant de la reconnaissance d’images ou de la parole au traitement du langage naturel et à la maîtrise de jeux complexes tels que les échecs ou le go. Cependant, ils restent souvent rigides, fragiles et limités, incapables de s’adapter en permanence à un large éventail d’environnements changeants. Ils ne peuvent pas inventer de nouvelles tâches sans « oublier catastrophiquement » ce qu’ils ont appris auparavant, et ont du mal à construire des abstractions d’ordre supérieur conduisant à une généralisation systémique capable d’intégrer des données « étrangères ». Ils n’atteignent donc pas le niveau de robustesse nécessaire pour « survivre » aux diverses perturbations de leur environnement. Cette propriété naturelle qu’ont la plupart des systèmes biologiques apparaît comme nécessaire pour déployer des systèmes d’IA dans des applications réelles. Dans cet exposé, nous donnerons un bref aperçu de certaines approches pour rendre l’IA plus générale et plus robuste. En outre, nous discutons brièvement du rôle du passage à l’échelle et résumons les avancées récentes dans la formation de modèles non supervisés de très grande taille. Nous soulignons également l’importance de développer une science empirique des comportements de l’IA. Nous nous concentrons sur le domaine en pleine expansion des lois d’échelle neuronale, qui nous permettent de mieux comparer et extrapoler le comportement de divers algorithmes et modèles face à des quantités croissantes de données, des tailles de modèle et de ressources informatiques, les une et les autres en augmentation.