/ SPEAKER
Architecte sécurité chez Bpifrance depuis 2023, et dans l'IT depuis 2008. Conférencier sur les sujets Architecture, Cloud Native et sécurité. Je suis un adepte de la vulgarisation : un bon résumé, digeste, d'un sujet technique de 20, 40 ou 50 minutes, ça a une valeur inestimable pour moi, dans ce monde Tech où tout évolue si vite !
Organisateur du Snowcamp (Grenoble) et coach tremplins avec CraftsRecords. Accessoirement improvisateur rookie.
En 2023, l’Intelligence Artificielle générative (IA Gen) bat des records d’adoption : 100 millions d’utilisateurs pour chatGPT en 2 mois, une course effrénée entre les leaders technologiques (10 milliards d'investissement dans OpenAI par Microsoft, sortie de Google Bard, etc.). En effet, l’IA Gen est considérée par beaucoup comme un facteur de croissance et de productivité incontournable pour rester compétitif. Ça va très vite ! Mais on doit y aller !
Mais, une utilisation croissante de l’IA Gen expose à une augmentation des menaces cybercriminelles. Par exemple, plusieurs études montrent que la génération de code assistée par IA produit un code plus vulnérable, en moyenne, aux cyberattaques. Et ce n'est pas la seule vulnérabilité de l'IA Gen ! De fait, il convient d'évaluer les risques et d'appliquer des mesures de sécurité, pour bénéficier de la valeur ajoutée de l’IA de manière sûre et responsable.
Avez vous pris le temps de le faire ? Nous oui ! Et c'est dans un écosystème en pleine maturation qu'on va trouver des mesures de sécurité, sous la forme de framework (ex: NIST AI RMF 1.0, ENISA), de référentiels de menaces (OWASP Top 10 LLM, Microsoft Learn, etc.) et d'un florilège de services innovants.
Nous proposons de vous présenter nos études et travaux sur le sujet, dans cette conférence. Nous parlerons de risque comportemental et social, de contrôle et validation de données, de fuites d'informations et du besoin de transparence associé à l'utilisation d'IA générative.
Searching for speaker images...