object.title
AWS Summit Paris 2024 - Intersection cloud, IA et innovation

L'édition 2024 du AWS Summit à Paris s'est révélée être un tournant pour les experts en technologie, offrant une scène pour révéler comment l'intégration de l'intelligence artificielle (IA) dans le cloud est en train de transformer plusieurs industries. Cet événement représentait une opportunité unique pour observer et évaluer les nouvelles tendances et les défis liés à l'adoption de ces technologies. Voici une analyse approfondie des principales sessions et des sujets abordés lors de cette journée inaugurale.

Keynote d'ouverture : Visions et perspectives d'avenir

La plénière d'ouverture, orchestrée par Julien Groues et Mai-Lan Tomsen-Bukovec, a souligné la capacité des solutions AWS à capitaliser sur la puissance de l'IA générative. À travers des exemples concrets de Air Liquide et du Groupe TF1, ils ont démontré comment le cloud AWS stimule leur activité en améliorant l'expérience client et en optimisant les processus opérationnels. Arthur Mensch de Mistral AI a exposé l'importance d'une infrastructure robuste pour supporter les modèles de langage à grande échelle (LLMs), cruciaux pour le traitement et l'analyse de vastes quantités de données en temps réel.

Influence de l'IA sur les secteurs clés

May Lan a rappelé les progrès significatifs depuis la révolution industrielle jusqu'à notre ère numérique, mettant en lumière comment l'IA révolutionne des secteurs comme la santé et les technologies de l'information. L'exemple de Netflix dans la proposition de contenu vidéo ou Moderna pour appliquer l'IA à la recherche du vaccin sur le COVID-19 illustre bien cette interdisciplinarité, démontrant comment l'IA peut accélérer le développement de solutions innovantes face aux défis mondiaux.

Transformation numérique chez Air Liquide

Fabien Mangeant, de Air Liquide, a relaté comment, depuis 2018, la digitalisation via les données et l'IA est devenue une composante clé de la stratégie de transformation de l'entreprise. Grâce à une plateforme de données soutenue par les services AWS, Air Liquide traite quotidiennement 3,5 milliards de données issues de 600 usines et de ses interactions avec plus de quatre millions de patients et clients. Cette étude de cas illustre le rôle de l'IA dans l'optimisation de la chaîne de valeur industrielle et l'amélioration continue de l'efficacité opérationnelle.

Outils et Infrastructures pour l'IA Générative

Cette session a également mis en lumière les avancées en matière d'infrastructures nécessaires pour soutenir l'IA générative. Le partenariat entre AWS et NVIDIA dans le cadre du projet CEIBA, qui vise à développer des puces pour l'IA générative, souligne l'importance d'une base matérielle solide. De plus, Amazon Bedrock a été présenté comme une plateforme essentielle pour le développement avec des LLMs, offrant des outils intégrés de sociétés telles que AI21 Labs et Anthropic pour faciliter le déploiement et la gestion des applications d'IA.

L'Open Source et l'IA chez Hugging Face

Thomas Wolf de Hugging Face a discuté de l'importance de l'open source dans le développement et la démocratisation de l'IA. Avec une approche communautaire, Hugging Face a réussi à créer une bibliothèque de demi-million de modèles d'IA, rendant la technologie accessible à un large éventail d'utilisateurs et stimulant l'innovation dans diverses applications, y compris dans des domaines aussi pointus que l'exploration spatiale avec la startup Hawking.

Stratégie de Stellantis pour le déploiement de l'IA générative à grande échelle

Stellantis a brillé avec une intervention approfondie sur le déploiement à grande échelle de l'intelligence artificielle (IA) générative. Dirigée par Annabelle Gérard, responsable du centre d'excellence en IA générative chez Stellantis, la présentation a abordé les dimensions techniques, éthiques et opérationnelles essentielles pour une intégration responsable et efficace de l'IAbgénérative dans le secteur automobile.

Cadre stratégique pour l'adoption de l'IA générative

Stellantis a dévoilé un modèle d'adoption de l'IA articulé autour de trois piliers essentiels : processus, technologie et humain. Ce modèle met en avant une approche globale qui inclut non seulement les aspects techniques de l'IA, mais également les implications éthiques et sociales de son utilisation.

  • Identification des utilisateurs et impacts : Comprendre en profondeur les utilisateurs finaux et les impacts potentiels de l'IA sur eux.
  • Évaluation des risques : Examiner les risques potentiels et les désavantages par rapport aux bénéfices attendus.
  • Gestion des échecs : Établir des protocoles pour traiter efficacement les erreurs et défaillances de l'IA.

Piliers d'une IA éthique

La présentation a souligné les principes éthiques que Stellantis intègre dans le développement de ses IA génératives : 

 
  • Alignement avec les valeurs organisationnelles : Veiller à ce que les projets d'IA soient en accord avec les valeurs fondamentales de l'entreprise.
  • Confidentialité et sécurité des données : Prioriser la protection des données personnelles et la sécurité à travers toutes les opérations.
  • Équité et transparence : S'engager à développer des systèmes justes et transparents.
  • Formation et sensibilisation : Former les employés aux meilleures pratiques en IA et à ses implications éthiques.
  • Diversité et inclusion : Favoriser la diversité au sein des équipes de développement pour prévenir les biais algorithmiques.

Infrastructure et sécurité

La mise en place de l'IA générative exige une infrastructure robuste et sécurisée. Stellantis a expliqué son approche pour sécuriser le développement et le déploiement de l'IA :

  • Gouvernance de l'IA : Intégrer la modélisation des menaces et la conformité aux normes.
  • Surveillance et audit : Installer une surveillance continue et des audits périodiques pour assurer l'intégrité du système.
  • Protection des données : Classifier les données et déployer des stratégies pour détecter et atténuer les biais.

Plateforme GenAI de Stellantis

La plateforme GenAI de Stellantis est conçue pour simplifier l'accès et la gestion des LLM :

  • Outils pour LLM : Offrir des outils facilitant l'intégration et l'utilisation des modèles de langage.
  • Gateway IA : Une passerelle sécurisée basée sur les autorisations pour accéder aux applications.
  • Accès en libre-service : Permettre aux utilisateurs un accès autonome aux outils basés sur l'IA générative.

Applications pratiques

Stellantis a présenté plusieurs cas d'utilisation de l'IA générative dans plusieurs domaines métier démontrant son potentiel transformateur tel que "l'ingénierie" avec une application de l'IA pour la classification des données véhicule et la recherche intelligente de pièces, ou "l'Achat" avec une assistance dans l'analyse des contrats et l'optimisation des processus d'achat.

Stellantis a présenté plusieurs cas d'utilisation de l'IA générative dans plusieurs domaines métier démontrant son potentiel transformateur tel que "l'ingénierie" avec une application de l'IA pour la classification des données véhicule et la recherche intelligente de pièces, ou "l'Achat" avec une assistance dans l'analyse des contrats et l'optimisation des processus d'achat.

Vers une intégration transparente et sécurisée de l'IA

Stellantis accentue l'importance d'une infrastructure à la fois transparente et sécurisée pour l'intégration de l'IA générative. Le développement de systèmes de monitoring robustes et l'implémentation de protocoles de sécurité avancés sont cruciaux pour prévenir les abus et assurer que les technologies d'IA servent l'intérêt général tout en protégeant la confidentialité des utilisateurs.

Implications pour l'avenir de l'industrie automobile

L'initiative de Stellantis montre comment les entreprises peuvent naviguer dans le paysage complexe de l'IA générative. En adoptant une approche globale qui prend en compte les aspects techniques, éthiques, et humains, les organisations peuvent maximiser les bénéfices de l'IA pour transformer leurs opérations tout en restant fidèles à leurs valeurs fondamentales.

Cette approche souligne aussi l'importance de la formation continue et de la sensibilisation. En formant les employés et les parties prenantes aux principes de l'IA responsable, Stellantis s'assure que son personnel est non seulement compétent techniquement, mais également préparé éthiquement à travailler avec des technologies avancées.

Défis et Opportunités

L'intégration de l'IA générative présente de nombreux défis, notamment la gestion des risques, la sécurisation des données, et la garantie d'une utilisation équitable et transparente de l'IA.

Ces défis sont essentiels à surmonter pour Stellantis et d'autres entreprises. Toutefois, les opportunités offertes par cette technologie, telles que l'amélioration des décisions, l'optimisation des opérations et la personnalisation des services, sont considérables.

Stellantis a proposé une vue détaillée sur l'adoption responsable de l'IA générative dans le secteur automobile. En mettant l'éthique au cœur de sa stratégie d'IA, Stellantis ne se contente pas de suivre les tendances technologiques, mais les redéfinit en établissant les bases pour un avenir où la technologie et les valeurs humaines évoluent ensemble. Ce modèle pourrait servir de référence à d'autres entreprises désireuses d'exploiter le potentiel de l'IA générative tout en naviguant avec succès les complexités de son déploiement à grande échelle.

IA générative : Révolution dans la découverte de médicaments par Iktos

L'utilisation transformatrice de l'intelligence artificielle dans le domaine pharmaceutique a été mis en avant grâce à l'intervention de Thomas Sauzeau d'AWS et Nicolas Do Huu d'Iktos. Ils ont présenté comment l'IA générative est exploitée pour innover dans la découverte de nouveaux médicaments, offrant un potentiel de changement radical dans le développement et l'optimisation des traitements.

Exploration de l'IA générative pour la découverte de médicaments

Iktos, en partenariat avec AWS, a mis au point une plateforme SaaS révolutionnaire qui applique l'intelligence artificielle pour transformer le processus de découverte de médicaments. Cette plateforme aide les laboratoires pharmaceutiques à accélérer leurs recherches, réduire les coûts et augmenter le taux de succès des candidats médicaments.

Emploi des modèles de langage à grande échelle (LLM)

Un élément central de cette solution est l'utilisation des LLM, qui permettent de générer et d'exploiter des modèles de données complexes nécessaires pour la synthèse et l'analyse de nouvelles structures moléculaires. Grâce à Amazon Bedrock, Iktos peut implémenter ces puissants LLM, favorisant une modélisation et une simulation plus précises des interactions moléculaires.

Applications Spécifiques

La présentation a mis en évidence plusieurs applications de l'IA générative dans le processus de découverte de médicaments :

Optimisation de Structures Moléculaires : L'IA est utilisée pour affiner les structures moléculaires, maximisant leur efficacité et minimisant les effets indésirables.

Formation IA et Réseaux Neuronaux Basés sur le Cerveau (BBNN) : Développement de modèles capables de prédire les résultats des tests de médicaments plus rapidement que les méthodes conventionnelles.

Du Hit au Lead et optimisation du lead : Techniques d'IA pour accélérer la sélection des candidats les plus prometteurs et optimiser ces candidats pour les essais cliniques.

Infrastructure et Support AWS

La collaboration avec AWS offre à Iktos une infrastructure robuste et sécurisée pour le traitement des données sensibles et la conduite de simulations complexes requises pour la découverte de médicaments. Les simulations de dynamique moléculaire, cruciales pour comprendre les interactions médicamenteuses au niveau atomique, sont réalisées sur des GPU via AWS, assurant rapidité et efficacité.

Avenir de l'IA chez Iktos

Iktos envisage de développer un laboratoire entièrement automatisé, Iktos Robotics, qui utilisera l'IA pour automatiser non seulement la découverte mais aussi la synthèse de nouveaux médicaments.

Cette initiative pourrait révolutionner le domaine de la recherche pharmaceutique, rendant le processus beaucoup plus rapide et moins onéreux.

Iktos illustre le potentiel révolutionnaire de l'IA générative dans le secteur de la santé, particulièrement dans la découverte de nouveaux médicaments. En tirant parti de la puissance de l'IA et d'une infrastructure cloud solide, Iktos est idéalement positionné pour piloter l'innovation dans la recherche pharmaceutique, offrant de nouvelles possibilités et de l'espoir dans le traitement de diverses maladies.

L'impact de l'IA générative sur les startups : Un bilan de l'AWS Summit 2024

Animée par Vivien de Saint Pern d'AWS, la table ronde a réuni des intervenants de plusieurs startups innovantes telles que Grace Mehrabe d'Outmind, Charles Borderie de Lettria, et Svend Court-Payen de Qlip. Ils ont partagé leur expérience de l'implémentation de l'IA générative en 2023, les bénéfices obtenus et les défis rencontrés.

Expériences variées avec l'IA générative

Qlip a mis en lumière leur capacité à rester en tête malgré la concurrence accrue, grâce à l'actualisation continue de la contextualisation de leur contenu avec les LLM. Leur principal défi a été de trouver un équilibre entre la richesse du contenu généré par l'IA et la nécessité de contrôler les "hallucinations créatives" des sorties de l'IA, pour garantir la pertinence et l'exactitude des contenus vidéo.

Outmind a souligné l'élargissement du marché de l'IA et l'ajout de cas d'utilisation pertinents pour leurs clients, en mettant en avant l'importance de l'interaction constante avec les utilisateurs pour les habituer à l'utilisation des prompts de l'IA.

Lettria a expliqué leur démarche initiale d'évaluer les avantages de l'intégration des LLM dans leurs produits, ce qui a conduit à un gain de temps notable dans leurs opérations.

Défis de l'Intégration de l'IA Générative

L'intégration des LLM a présenté des défis notables. Qlip a évoqué les difficultés de création de contenu, où maintenir un équilibre entre la créativité de l'IA et le contrôle de qualité est essentiel. Outmind a discuté des défis liés à l'adoption de cette nouvelle technologie par les utilisateurs, nécessitant une approche éducative dès le départ.

Stratégies de Déploiement et Mesure de l'Impact

Le déploiement en production a été discuté, avec des stratégies comme le déploiement en bleu/vert utilisé par Outmind, qui permet une transition fluide pour les utilisateurs finaux. Qlip a expliqué leur approche d'acceptation de la variabilité initiale pour construire progressivement la confiance des utilisateurs.

La mesure de l'impact a varié selon les entreprises. Qlip a observé une amélioration significative dans la génération de contenu pour leurs utilisateurs, tandis qu'Outmind a noté une croissance impressionnante de 50 % au quatrième trimestre, attribuée à l'utilisation de l'IA générative. Lettria a rapporté des gains de temps considérables, confirmant l'efficacité de l'IA dans leurs processus.

Cette table ronde nous a éclairé sur l'efficacité de l'IA générative dans divers contextes d'entreprise, mais a aussi souligné les défis liés à son intégration. Les échanges entre ces leaders technologiques ont offert des perspectives précieuses sur la manière dont les startups peuvent tirer parti des technologies émergentes pour transformer leurs opérations et leurs offres de services.

 

Optimisation du workflow de transcodage vidéo chez Canal+ avec AWS

La session consacrée à l'accélération de l'expansion d'un workflow de transcodage vidéo chez Canal+ a été un moment fort, explorant la transition des processus médias traditionnels vers des solutions modernes basées sur le cloud.

Animée par Karim Sabbagh et Lionel Gattegno d'AWS, avec la participation de Kevin Saliou de Canal+, cette présentation a révélé les défis et succès de Canal+ dans le domaine du transcodage vidéo.

Transformation Numérique chez Canal+

Canal+ a lancé un projet ambitieux appelé WALL-E, visant à moderniser et étendre leur capacité de transcodage vidéo face à une augmentation rapide du volume d'archives. Ce projet répondait à la nécessité de gérer une quantité croissante de contenu et à l'évolution des formats de diffusion et des codecs, tels que HLS, MPEG-Dash, et ceux associés au Windows Server IIS Smooth Streaming.

Stratégies adoptées

La migration vers AWS a permis à Canal+ de bénéficier de l'élasticité et de la robustesse du cloud.

L'approche 'split and merge', qui consiste à découper le fichier source et à transcoder les segments sur des instances Amazon EC2 Spot, a été essentielle. Cette méthode a optimisé les coûts et amélioré l'efficacité du traitement de grands volumes de données.

Défis et solutions

Le principal défi pour Canal+ a été de gérer l'élasticité nécessaire pour traiter jusqu'à 45 000 transcodages mensuels, un nombre bien supérieur aux 6,000 initiaux. Pour cela, Canal+ a opté pour une architecture cloud native, créant une plateforme résiliente et élastique, capable de gérer des pics de charge sans précédent.

Résultats et avantages

Le passage à AWS a permis à Canal+ de gérer efficacement une archive de 350 TB et de supporter la programmation de 1200 contenus par jour sur 160 chaînes. Cette architecture a non seulement facilité l'expansion internationale mais aussi amélioré la qualité des services, notamment avec l'introduction de contenus en Dolby Vision en partenariat avec Apple TV.

Réflexions finales

La plateforme WALL-E incarne l'ambition de Canal+ pour une infrastructure média moderne, conçue pour être résiliente, adaptable et économiquement viable. Ce projet illustre comment les technologies de cloud computing peuvent transformer radicalement les opérations dans le secteur des médias, apportant une flexibilité sans précédent ainsi que des améliorations significatives en termes de coûts et de performances.

 

Cette présentation a mis en lumière la capacité de l'IA et du cloud à révolutionner les industries traditionnelles mais a également souligné l'importance d'une planification et d'une exécution méticuleuses pour réussir une transformation aussi profonde.

Impact et applications de l'IA générative dans la Fintech

La session sur l'IA générative dans la fintech, animée par Alexandre Matsuo d'AWS, a offert un aperçu du potentiel révolutionnaire de cette technologie dans le secteur financier.

Les interventions de Maxime Mandin de Blackfin Capital Partners, Zoe Mohl de Balderton Capital, Michael Benisti de Ledger, et Joffrey Martinez d'Artefact, ont apporté des perspectives variées sur les applications innovantes de l'IA générative.

Transformation digitale en Fintech

L'IA générative transforme les opérations des entreprises fintech, améliorant l'expérience client et automatisant les processus internes. Artefact a illustré l'utilisation de chatbots avancés qui facilitent l'autogestion pour les clients, permettant des services comme l'ouverture de comptes et la souscription à des assurances et des crédits via des interactions en langage naturel.

Exemples pratiques

Ledger a souligné comment l'IA générative a doublé leur productivité grâce au développement assisté, optimisant ainsi leur code de manière plus efficace. Ils ont également insisté sur l'importance de conserver une approche "human-in-the-loop" pour compléter les capacités humaines sans les remplacer.

Blackfin utilise l'IA pour rédiger des synthèses de courtage en réponse aux demandes de financement, améliorant significativement leur service client.

Défis et Stratégies

Les défis de l'adoption de l'IA générative ont été abordés, notamment les risques associés à la reconnaissance des données. Ledger a évoqué les difficultés liées à la précision, tandis que Blackfin a discuté des risques de fraude et de la nécessité de réaliser des audits continus pour garantir la sécurité et la conformité.

Perspectives des investisseurs

Les investisseurs, comme ceux de Blackfin Capital et Balderton Capital, ont exprimé leur optimisme quant au potentiel de l'IA générative tout en soulignant l'importance de critères d'investissement rigoureux. Ils recherchent des applications avec un retour sur investissement clair et la capacité à former l'IA sur des données spécifiques pour développer des solutions véritablement personnalisées et efficaces.

Conclusion et perspectives futures

Les participants ont souligné que la fintech est à un tournant excitant avec l'IA générative, qui offre des possibilités incroyables pour transformer les services financiers. Cependant, cela nécessite également une approche renouvelée de la gestion des risques, de la formation continue et de l'investissement dans des technologies sécurisées. L'avenir de la fintech, enrichi par l'IA générative, promet des améliorations significatives en termes d'efficacité et une expérience client améliorée, rendant les services financiers plus accessibles et personnalisés que jamais.

Mise en place d'une stratégie d'observabilité efficace

La session animée par Rodrigue Koffi et Sébastien Duval d'AWS a exploré l'importance vitale de l'observabilité dans les architectures modernes, particulièrement dans les environnements cloud.

Cette discussion a mis en avant la nécessité d'une approche proactive et structurée pour surveiller et optimiser les systèmes informatiques.

Fondements de l'observabilité

L'observabilité a été abordée à travers le modèle du "Golden Circle", qui inclut les questions : "Pourquoi observer ?", "Comment observer ?" et "Quoi observer ?".

Cette méthode vise à définir clairement les objectifs et les méthodologies avant de se plonger dans les aspects techniques.

Maturité de l'observabilité

La maturité de l'observabilité chez une organisation peut être classée en quatre niveaux :

Niveau 1 - Fondamentaux : Implique la collecte de données télémétriques de base.

Niveau 2 - Analyse Télémétrique : Transformation des données en informations exploitables.

Niveau 3 - Observabilité Avancée : Détection proactive et corrélation des anomalies.

Niveau 4 - Proactivité : Identification automatique des sources de problèmes pour une résolution rapide.

Techniques et outils

Pour chaque niveau de maturité, des outils spécifiques d'AWS ont été recommandés :

Amazon CloudWatch pour une vue d'ensemble et des alertes de base.

AWS X-Ray pour le traçage détaillé et la détection fine des anomalies.

Amazon Managed Service for Prometheus pour une gestion avancée des métriques et alertes, surtout dans des environnements Kubernetes.

Importance de l'observabilité

L'importance de l'observabilité a été soulignée comme cruciale non seulement pour la détection et la résolution des incidents, mais aussi pour comprendre leur impact sur les opérations et l'expérience utilisateur. Elle permet aux organisations de rester réactives et prédictives plutôt que simplement réactives.

Pratiques recommandées

Des pratiques spécifiques ont été recommandées, comme l'utilisation de AWS Real User Monitoring (RUM) pour observer l'expérience utilisateur en temps réel, l'adoption d'une stratégie de tableau de bord différenciée pour les acteurs internes, et une stratégie d'alerte efficace pour éviter la surcharge d'informations.

Itération et amélioration continue

L'itération et l'amélioration continue ont été présentées comme essentielles, soulignant que l'observabilité n'est pas un projet à mettre en œuvre une fois pour toutes, mais un processus continuel qui doit évoluer avec les systèmes surveillés.

En conclusion, la session a mis l'accent sur la définition claire des objectifs métiers et leur alignement avec les stratégies d'observabilité. Évaluer la maturité de l'observabilité est crucial pour s'assurer que les stratégies mises en œuvre sont non seulement efficaces, mais aussi adaptées aux besoins spécifiques de l'entreprise. Bien exécutée, l'observabilité permet une meilleure compréhension des systèmes et une capacité accrue à répondre rapidement aux conditions changeantes, garantissant ainsi la satisfaction et la fidélité des clients.

Conclusion de l'AWS Summit 2024 : Naviguer dans l'ère de l'IA avec éthique et harmonie

Le sommet a mis en relief la façon dont les technologies d'AWS facilitent l'utilisation de l'IA en fournissant des outils qui augmentent les capacités humaines. Cependant, cette intégration soulève des questions cruciales :

  • Comment maintenir un équilibre sain entre l'autonomie humaine et la décision automatisée ?
  • Comment les données, qui reflètent nos vies, sont-elles utilisées pour améliorer ces technologies sans compromettre notre intimité ?

Le rôle des leaders technologiques

En tant que leader technologique, AWS façonne l'avenir de notre monde numérique, mais avec une grande puissance vient une grande responsabilité. Leur rôle dans la promotion de pratiques équitables et la stimulation de la concurrence saine est crucial. Cela nous pousse à réfléchir sur la manière dont ces entreprises peuvent agir comme des gardiens de la technologie, en innovant non seulement pour le progrès, mais aussi pour assurer que ces avancées profitent équitablement à tous.

Philosophie de la coexistence

La convergence de l'IA, des données et du cloud incite à des réflexions profondes sur notre relation avec la technologie. Comment ces outils, qui étendent notre intelligence et nos capacités, redéfinissent-ils ce que cela signifie d'être humain ? Quelle place la technologie occupera-t-elle dans nos vies et comment pouvons-nous l'utiliser pour enrichir l'expérience humaine plutôt que de la dominer ?

La convergence des technologies et des pratiques exposées lors de l'AWS Summit 2024 souligne une vérité incontournable : le potentiel de l'IA est immense, mais sa mise en œuvre sûre nécessite une synergie entre l'innovation technologique et la vigilance humaine.

Alors que l'IA repousse les limites de ce qui est possible, transformant les données en décisions et en actions presque en temps réel, il reste essentiel de naviguer dans cette nouvelle ère avec une boussole éthique et sécuritaire claire.

L'IA redéfinit, l'humain sécurise.

En embrassant cette dualité, nous pouvons non seulement suivre le rythme de l'innovation mais aussi le guider vers un futur où la technologie amplifie le bien sans compromettre la sécurité ou l'éthique.

 

Lionel GAIROARD

Practice Leader DevSecOps