12th édition – du 17 au 19 avril 2024
3 jours de conférences, 70 exposants, 4500 visiteurs par jour
Aurélien Fournet
Serma Safety and Security
Après 8 ans d'expérience dans le domaine du spatial et de la sécurité, j'ai rejoint la société SERMA SAFETY & SECURITY en tant que consultant en cybersécurité. Mon travail consiste à protéger les infrastructures numériques de l’entreprise contre les menaces cyber. Au fil des années, j'ai acquis une solide expertise dans les domaines de la cybersécurité et de la gestion des risques. Ma mission actuelle au sein de Bpifrance m'a notamment permis de me familiariser avec les cas d'usages de l'IA générative mais aussi aux risques et besoins en matière de sécurité qui y sont associés.
En 2023, l’Intelligence Artificielle générative (IA Gen) bat des records d’adoption : 100 millions d’utilisateurs pour chatGPT en 2 mois, une course effrénée entre les leaders technologiques (10 milliards d'investissement dans OpenAI par Microsoft, sortie de Google Bard, etc.). En effet, l’IA Gen est considérée par beaucoup comme un facteur de croissance et de productivité incontournable pour rester compétitif. Ça va très vite ! Mais on doit y aller !
Mais, une utilisation croissante de l’IA Gen expose à une augmentation des menaces cybercriminelles. Par exemple, plusieurs études montrent que la génération de code assistée par IA produit un code plus vulnérable, en moyenne, aux cyberattaques. Et ce n'est pas la seule vulnérabilité de l'IA Gen ! De fait, il convient d'évaluer les risques et d'appliquer des mesures de sécurité, pour bénéficier de la valeur ajoutée de l’IA de manière sûre et responsable.
Avez vous pris le temps de le faire ? Nous oui ! Et c'est dans un écosystème en pleine maturation qu'on va trouver des mesures de sécurité, sous la forme de framework (ex: NIST AI RMF 1.0, ENISA), de référentiels de menaces (OWASP Top 10 LLM, Microsoft Learn, etc.) et d'un florilège de services innovants.
Nous proposons de vous présenter nos études et travaux sur le sujet, dans cette conférence. Nous parlerons de risque comportemental et social, de contrôle et validation de données, de fuites d'informations et du besoin de transparence associé à l'utilisation d'IA générative.
More
en_USEnglish