Commande #65669
Site internet Loamics - ANGLAIS - 20 textes
Consignes générales du client :
*** URL MASQUÉE *** : Data, tech, Big Data, Data analyst, Data scientist
Site en anglais, rédacteur bilingue (franco-anglais), natif anglophone, mise à disposition de briefs rédactionnels et de ressources internes.
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 1 : Data Collect
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 2 : Healthcare industry
Pierre-Baptiste-19496 a été choisi pour la rédaction de ce texte.
Texte 3 : Data Lake
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais. Bien intégrer les éléments de notre solution
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Parler de notre solution dans les textes.
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 4 : Financial services
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Inputs redactionnel :
Banque Finance Assurance
1/ Lutte contre LA FRAUDE (banques ont déjà recensé les comportements douteux)
Repérer les comportements douteux et réagir vite sans bloquer le client. Vérifier que le comportement soit douteux. Une personne seule ne peut pas le faire car elle n’a pas l’ensemble des comportements car elle n’a pas tous les comportements précédents par ex.
Vérifier que le nouvel acte bancaire ne soit pas un acte juste après un comportement douteux. La lutte contre la fraude c’est cela
Pour ce nouvel acte, on s’assure que rien de douteux n’ait été fait avant. Analyse comportementale sur des trends.
Si qq reçoit ne reçoit plus son salaire mais demande de + en + de crédit, il devient à risque
Si tu fais un paiement par CB à qq min près de France, de Belgique, de Chine,… il y a un problème
Loamics permet de vérifier avant que le nouvel acte bancaire, le comportement n’ait pas été détecté
Lorsqu’il y a une fraude avérée, on regarde tout ce qui s’est passé avant, on clusterise pour dégager des catégories de comportements. Pour ce type de fraude, Loamics permet la modélisation des comportements de fraude qui sont mis à jour en temps réel en fonction des données qui entrent.
Champs d’application LA FRAUDE (banques ont déjà recensé les comportements douteux)
Repérer les comportements douteux et réagir vite mais ne pas bloquer le client. Vérifier que le comportement soit douteux. Une personne seule ne peut pas le faire car elle n’a pas l’ensemble des comportements car elle n’a pas tous les comportements précédents par ex.
Vérifier que le nouvel acte bancaire ne soit pas un acte juste après un comportement douteux. La lutte contre la fraude c’est cela
Pour ce nouvel acte, on s’assure que rien de douteux n’ait été fait avant. Analyse comportementale sur des trends.
Si qq reçoit ne reçoit plus son salaire mais demande de + en + de crédit, il devient à risque
Si tu fais un paiement par CB à qq min près de France, de Belgique, de Chine,… il y a un problème
Loamics permet de vérifier avant que le nouvel acte bancaire, le comportement n’ait pas été détecté
2/ Lorsqu’il y a une fraude avérée, tu regardes tout ce qui s’est passé avant, tu clusterises. Pour ce type de fraude, voici le schéma, et donc tu créés, tu modélises le comportement de fraude et « tu le mets dans la machine »
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 5 : Manufacturing industry
Page de site internet : thématique tech/data, analytics, Big Data.
Parler de notre solution dans les textes.
Textes en anglais
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Inputs rédactionnels à faire figurer :
1 - Amélioration des process en continu:
Usine 4.0 Capacité à échanger de la data en interne, entre lignes de production, entre ligne de production et supply chain amont (fournisseurs) et aval, (expédition clients, SAV,…).
L’échange de données doit être un échange de données précises « la bonne donnée qui arrive au bon endroit ».
Toute la difficulté de l’usine 4.0 c’est la capacité à créer la donnée pertinente et à l’échanger avec les bons interlocuteurs / Services donc au bon endroit (avec les bons automates, les bons services,….)
En faisant cela on créé un process : ces process peuvent être améliorés en continu. L’outil aujourd’hui pour les améliorer c’est le Digital Twin ou Jumeau Numérique
Digital Twin = je crée un jumeau numérique cela veut dire que je vais virtualiser le process. L’avantage, c’est que je vais pouvoir d’un point de vue informatique « stresser » le process sans changer la réalité. En stressant le jumeau numérique, je peux donc évaluer mes risques mais également où sont mes marges de progrès.
Là on est véritablement dans l’usine 4.0.
Ex : dans l’aéro étude des données relatives aux vibrations d’une aile par rapport aux autres ailes, à la dérive, à la vitesse…
L’usine4.0 c’est le partage des bonnes informations directement et c’est en même temps la capacité de créer de nouvelles ontologies, de créer des jumeaux numériques pour pouvoir améliorer en permanence les process. Ce ne sont pas des process qui s’améliorent une fois, c’est en continu car chaque fournisseur s’améliore en permanence.
Grâce à Loamics, on peut rendre le digital twin dynamique et de le garder toujours à jour car il s’adapte en permanence au process. Comment : Grâce à la gestion des attributs des données permise par Loamics.
Ex je crée un algo a+b (je veux tous les a et tous les b). Si je mets une nouvelles source de données qui donnent des nouveaux « a ». Si je ne dis pas que c’est un « a », tu ne seras jamais capable de le prendre, donc si je ne dis pas tu seras obligé de refaire ton algo. Alors quand je travaille sur la donnée, parce que j’ai donné les attributs ton algo cherche les attribut dont il a besoin et donc est capable de récupérer la donnée. <p> décider d’intervenir avant le produit - passer la commande des pièces avant la panne, -> maintenance prédictive
Loamics pour pouvoir travailler dessus on met des algo quand on fait cela sur une chaine de prod tu peux le faire sans Loamics quand tu le fais sur 10 chaines de prod et sur lesquelles pour ces 10 chaines il existe 3 topologies différentes, et je veux vérifier une chaîne par rapport à sa topologie on le fait grâce au clustering (classifier les éléments à analyser en fonction de comportements afin de faciliter la prise de décision). Repérer le comportement anormal par rapport aux autres : clusteriser
1er champ d’application Amélioration des process en continu: Usine 4.0 Capacité à échanger de la data en interne, entre lignes de production, entre ligne de production et supply chain amont, entre ligne de production et expédition clients (Supply chain aval).
L’échange de données doit être un échange de données précises. Plutôt que des mails de mes fournisseurs je veux une donnée, mais la bonne donnée qui arrive au bon endroit.
Toute la difficulté de l’usine 4.0 c’est la capacité à créer la donnée pertinente et à l’échanger avec les bons interlocuteurs / Services donc au bon endroit (avec les bons automates, les bons services,….)
Quand on fait cela, on créé un process : ces process on peut toujours les améliorer . L’outil aujourd’hui pour les améliorer c’est le digital Twin
Digital Twin = je crée un jumeau numérique cela veut dire que je vais virtualiser le process avec pour avantage c’est que je vais pouvoir d’un point de vue informatique « stresser » le process. Je ne change pas la réalité puisque je stresse le jumeau numérique. En stressant le jumeau numérique, je vois au son mes risques mais également où sont mes marges de progrès.
Là on est véritablement dans l’usine 4.0.
Ex Quand on dit on donner la possibilité de créer des ontologies de données, ex tu me livres de l’acier qui va entrer dans un de mes automates de production. J’ai un compteur qui me dit je suis en train de prendre 10t d’acier, ce 10t d’acier ce n’est pas un process. Ils ont été pesé avant quand le camion est arrivé dans l’usine. Est-ce que cela a été pesé à 10t ? toi tu me dis 10t mais mon automate va me dire 9t. Quand le camion est parti de chez le frs on peut penser qu’il pouvait y en avoir plus. 10t pour mon usine et 10t pour qq d’autre. L’ontologie c’est le fait de savoir que ces 10t que j’ai mesuré dans mon automate viennent des 20t d’avant, viennent de ce qui est sorti de ton laminoir. Tout cela me permet de savoir comment les choses ont fonctionné. Ma donnée de 10t de mon entrée dans l’automate c’est fondamentalement tant de t de chez toi qui sont sorties.
Ex dans l’aéro vibration d’une aile par rapport aux autres ailes par rapport à la dérive, à la vitesse
Avec l’ontologie, on va recréer des assets.
Par exemple je vais dire au lieu de me livrer 10t tu ne vas m’en livrer que 5t, car c’est lieux pour moi en terme de stock, de gestion de stock, de fonctionnement de mon automate,.. ;
L’usine4.0 c’est le partage desbonnes informations directement et c’est en même temps la capacité de créer de nelles ontologies, de créer des jumeaux numériques pour pouvoir améliorer en permanence les process. Ce ne sont pas des process qui s’améliorent une fois, c’est en continu car chaque fournisseur s’améliore en permanence.
JN dynamique, Pouquoi il est dynamique car il s’adapte en permanence au process. Notre grande force est de rendre le digital twin dynamique et de le garder toujours à jour. Car je suis capable de gérer les attributs des données. Ex je crée un algo a+b (je veux tous les a et tous les b). Si je mets une nouvelles source de données qui donnent des nouveaux « a ». Si je ne dis pas que c’est un « a », tu ne seras jamais capable de le prendre, donc si je ne dis pas tu seras obligé de refaire ton algo. Alors quand je travaille sur la donnée, parce que j’ai donné les attributs ton algo cherche les attribut dont il a besoin et donc est capable de récupérer la donnée. <p> décider d’intervenir avant le produit - passer la cde avant la panne, just in time
Loamics pour pouvoir travailler dessus on met des algo quand on fait cela sur une chaine de prod tu peux le faire sans Loamics quand tu le fais sur 10 chaines de prod et sur lesquelles pour ces 10 chaines il existe 3 topologies différentes, et je veux vérifier une chaîne par rapport à sa topologie on le fait grâce au clustering. (expliquer)
Ex chaufferie, il y en a qui se relance automatiquement c’est lié à une événement (seuil de t°, heure,… . )Si tu es capable de dire que toutes les chaufferies du même endroit se sont relancées au même moment -> comportement normal, si t’en a une qui ne s’est pas relancé tu cherches pourquoi
Repérer le comportement anormal par rapport aux autres : clusteriser
Vendre du service (abonnement, prix par calorie), on vend plus le moteur mais le nombre d’heure de vols, ou nbre d’atterrissage (tu vends la valeur perçue
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 6 : Oil and gas
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 7 :Energy & utilities
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Inputs rédactionnels
ENERGIE – Services à l’énergie (pas ceux qui veulent l’économiser, transport, distrib et vente)
Fédérer autour d’une plateforme de master data management (MDM) tout un ensemble de logiciels utiles à tous les acteurs de l’Energie (utilities, transporteurs, distributeurs, fournisseurs et prestataires de services)
Cela permet donc aux opérateurs d’avoir l’ensemble des données et des services dont ils ont besoin en seul endroit
Transport (haute et très haute tension) et distribution Faciliter la « demande/réponse créer un équilibre dynamique. Les logiciels existent mais sans IA (créés il y a 20 ou 30 ans).
Equilibre des réseaux
Optimisation des puissances des installations : par conservatisme qd on a un poste de tant MegaW , quand on le change quand il devient trop vieux on redimensionne le nouveaux exactement de la même façon alors qu’il aurait fallu peut être augmenter ou diminuer sans se poser de questions.
Savoir comment il faut redimensionner ce demande des données, des analyses
Distribution – FRAUDE C’est sur des postes de livraisons électricité arrive en moy tension et ce poste va la distribuer en basse tension (tant de KW sur tant de points de livraison) et ce que j’ai distrivué tu retires un peu de pertes en ligne et cela correspond au point de livraison Si on a de la fraude cela ne correspond pas.
Identique l’eau (Londres 1/3 de l’eau disparait lié à des fuites) réseau pourri .
Domaines des données 5 secteurs prioritaires
NRJ
BFA
Sante
Agriculture intelligent
Transport et mobilité
Fournisseurs Energie Suivre les engagements des prix et les couvertures micro et macro
Couverture micro je suis Gazprom et tu as signé un gros contrat d’achat d’énergie et je m’engage à te livrer XX sauf que moi j’ai un prix fixe et Gazprom son achat est variable. Je dois donc suivre mes engagements micro.
En macro, je suis l’ensemble de mes engagements pour tous mes clients en même temps.
Je dois me protéger contre la hausse des prix
Être capable de suivre : mon risque est beaucoup plus fort quand on entre dans la période de chauffe que quand on va en sortir. Je suis l’écart (prix achat /prix de vente). La gravité est en période hivernale
Si chaufferie industrielle pour transformer la matière cela dépend de quand tu le fais, c’est suivre tes engagements et être capable de dire je suis capable de me couvrir (auto couverture).
Loamics pour suivre les engagement permet de récupérer toutes les données des CRM et les matcher à toutes les données de livraison,… Tu matches des données de source totalement différente et tu fais tes calculs que tu compares avec des calculs ou tu inclus des données d’influences (météo,…)
Les services ; On peut offrir les services conso d’énergie : dimensionnement des abonnements pour l’électricité, pour le gaz c’est les engagements journaliers de livraison. Est-ce que la capacité que je dois t’envoyer en gaz elle est bonne, haute pas assez haute qui correspond au contrat. Mais avec le gaz, c’est dépendant de la taille des tuyaux.
Les services liées à l’énergie, les Bureaux d’études, les sociétés d’exploitation, de maintenance grâce à cela sont capables de prendre toutes les données de leur client, offrir de meilleur service mais surtout d’être présents chez le client. Si tout est monitoré ces sociétés peuvent anticiper, proposer des interventions en amont, anticiper. Ils peuvent très vite voir le besoin sinon il faut attendre que le client t’appelle.
Loamics = Applicatifs pour suivre monitorer optimiser
SR-56893 a été choisi pour la rédaction de ce texte.
Texte 8 :Telecommunications
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 9 : Smart cities
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 10 : Aerospace & defense
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 11 : Retail
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 12 : Transportation
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 13 : Cloud partners
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 14 : Service partners
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 15 : Technology partners
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Texte 16 : Associations + communities/écosystème de confiance
Texte 17 : Augmented BI
C'est ne page offre, bien parler de notre solution
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
BR19-27282 a été choisi pour la rédaction de ce texte.
Texte 18 : Our Software
Page pillier de toutes les briques de notre logiciel, bien parler de notre solution
Page de site internet : thématique tech/data, analytics, Big Data.
Textes en anglais
Parler de notre solution dans les textes.
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Brief rédactionnels à venir
Ressources internes françaises et anglaises disponibles
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Texte 19 : Algo Engine
Bien parler de notre solution software et du Module Algo engine
Textes en anglais
Ressources disponibles et inputs de la solution à intégrer ABSOLUMENT dans les articles à rédiger : *** URL MASQUÉE ***
Bilingue Français-Anglais : Natif anglais
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.
Contenu pour un Usecase Smart City devant tenir en 2 pages (donc moins de 500 mots max)
Reformulation du contenu ci-joint. Mettre en place le système de "titre rubrique".
Voici le contenu d'un article de blog sur la manière dont notre Entreprise Loamics oeuvre pour SmartCity :
Smart City : quelle data gouvernance pour répondre aux enjeux de la ville intelligente ? – H1
En 2050, deux humains sur trois habiteront dans une ville. Cette urbanisation croissante s’accompagne de nouveaux défis.
● Comment répondre aux besoins énergétiques des habitants dans un contexte de crise climatique ?
● Quels axes et services développer pour améliorer la qualité de vie des citadins ?
● D’un point de vue économique, comment optimiser les coûts ?
La Smart City est une ville (ou une collectivité territoriale) qui, pour répondre à ces enjeux, s’appuie sur les nouvelles technologies : mise en réseaux des équipements urbains, capteurs de données, analyse intelligente des données, …
Combinées, ces technologies favorisent l’amélioration de la qualité de vie via la création de nouveaux services. Elles permettent aussi d’optimiser les coûts, notamment énergétiques, et de mettre en œuvre, sur le territoire, des politiques de transition environnementale.
Pour atteindre leurs objectifs, les Smart Cities s’appuient sur la donnée. Les données sont au cœur du concept de ville intelligente, ce qui pose inévitablement des questions de data gouvernance.
Quelles sont les données nécessaires et suffisantes pour assurer un fonctionnement optimal de la Smart City ? Comment faire en sorte que les données personnelles des habitants et les données business des opérateurs soient protégées alors que la mise en réseau et l’interopérabilité des données sont inhérentes au concept de Smart City ?
Les données au cœur de la Smart City – H2
La Smart City, un « concept ombrelle » – H3
Le concept générique de « Smart City » regroupe en réalité plusieurs sous-concepts qui se combinent pour rendre la ville plus connectée et améliorer la qualité de vie des habitants. Les choix stratégiques et politiques inciteront les collectivités à pousser plus ou moins le curseur sur l’une ou l’autre dimension.
Néanmoins, la ville intelligente associe en général tout ou partie de ces éléments :
● Le Smart Building, qui consiste à optimiser le confort et l’utilisation des espaces et à réduire leur consommation énergétique.
● Le Smart Lighting, qui vise à optimiser l’éclairage public en l’adaptant aux usages des habitants.
● Le Smart Metering, qui permet de rationaliser la production et la consommation d’énergies.
● La sécurité intelligente
● Les Smart Services, qui regroupent les services innovants aux habitants, par exemple les services liés à la mobilité, au stationnement et à l’environnement
Une génération de données massives et hétérogènes – H3
Pour assurer un fonctionnement optimal, la Smart City collecte des données relatives à ces différents axes : énergie, bâtiments, mobilité, transports, …
Ces données sont de diverses natures : données énergétiques, données météorologiques, bornes de recharge électrique, données bâtimentaires, feux de circulation, applications, …
Compte tenu du développement des nouvelles technologies (numérique, IoT, capteurs intelligents, …), la quantité de données collectées est sans précédent.
De plus, ces données massives et hétérogènes s’entrecroisent.
Or, si la collectivité veut par exemple passer à un éclairage intelligent, le pilotage du système nécessite de croiser des données diverses : fréquentation des espaces, sécurité, données énergétiques, …
Dès lors, la question qui se pose est celle de la Data Gouvernance : comment organiser ces données qui se croisent ?
La Data Gouvernance, un enjeu crucial pour la Smart City – H2
Un contexte de massification des données – H3
Les projets de Smart Cities sont confrontés à une problématique forte liée à la multiplication des données. Aujourd’hui, la question de générer des données n’est plus un frein. Les technologies existent pour recueillir de la data et elles sont performantes. Le développement de l’Internet des Objets, de l’intelligence artificielle et le déploiement de la 5G devraient encore intensifier la production de données.
Mais, justement, la masse de données potentiellement disponibles est telle que l’enjeu est désormais celui de la gouvernance des données : quelles sont les données nécessaires et suffisantes à faire remonter pour faire fonctionner la ville intelligente ?
En effet, le concept de Smart City suppose que la donnée publique puisse être ouverte aux parties prenantes pour soutenir les prises de décisions.
Mais « open data » ne signifie pas pour autant que toutes les données devraient être rendues accessibles à tous.
Des enjeux juridiques – H3
Certains types de données n’ont pas vocation à remonter dans le système :
● Les données personnelles font l’objet de réglementations spécifiques (Loi Informatique et Liberté, Loi République Numérique, RGPD)
● Les données business des opérateurs sont confidentielles et ne doivent pas devenir accessibles à leurs concurrents
● Enfin, une partie des données publiques n’entrent pas nécessairement dans le scope de la Smart City
La Data Gouvernance consiste justement à décider quels types de données doivent remonter pour assurer un fonctionnement de la Smart City en accord avec le cadre juridique.
Des enjeux technologiques – H3
Outre les enjeux juridiques, l’inflation des données soulève des questions technologiques.
Si on choisit de faire remonter toutes les données, il faut disposer de capacités de stockage de données plus conséquentes. Les infrastructures de stockage seront alors plus coûteuses et énergivores.
De plus, puisque les données sont très hétérogènes, le risque est fort de créer de nouveaux silos de données. Or, tout l’enjeu de la Smart City réside dans l’interopérabilité des données.
De vastes sets de données, confinant à l’exhaustivité, n’ont pas d’intérêt si, derrière, on ne peut pas les croiser pour alimenter des applications ou des usages métiers.
L’abandon des projets de Paris avec Cisco et Toronto avec Google montrent que la proof of concept de la Smart City passe par une gouvernance des données optimale.
Le rôle de la Data Gouvernance – H3
La Smart City repose sur des données massives et hétérogènes qui se croisent. Elle se situe aussi à l’intersection d’enjeux techniques, réglementaires, économiques et politiques.
Dans ce contexte, la Data Gouvernance joue un rôle de régulation. Elle évite un éparpillement excessif qui pourrait engendrer des blocages techniques mais aussi le désengagement de certains acteurs ou encore le rejet des habitants.
La gouvernance des données répond à plusieurs besoins de la Smart City :
● Rendre la donnée disponible, exposable et exploitable pour les métiers et, en particulier les profils-métiers non-IT
● Renforcer le niveau de qualité réel de la Data ainsi que sa sécurisation
● S’affranchir de l’origine de la donnée, de sa source, de son hétérogénéité et de sa complexité
● Traiter une donnée primaire ou une meta-data
● Créer des “données en self-service”
Cette Data Gouvernance s’appuie sur un système de data intelligence. C’est justement en ce sens que nous proposons notre solution Loamics aux collectivités qui adoptent un projet de type Smart City.
Comment l’architecture Loamics favorise-t-elle la gouvernance des données ? – H2
La Data Gouvernance consiste à rendre la donnée à la fois accessible, fiable, exploitable, rentable et sécurisée. A défaut, les collectivités ne pourront pas la maîtriser, l’exploiter ou la valoriser. Une gestion de la donnée non gouvernée est porteuse de risques :
● Failles de sécurité sur les établissements publics et les infrastructures
● Risques sur les données privées des citoyens et les données business des entreprises
La diversité des sources de données à agréger rend indispensable le recours à un système centralisé capable d’utiliser les données, quelle que soit leur origine. De plus, le système doit aussi pouvoir absorber l’intégration de futures nouvelles sources de données.
Véritable socle de la ville intelligente, la solution logicielle de Loamics est capable de collecter des données massives et hétérogènes en continu, en temps réel et de manière automatisée et industrielle.
La solution gère, centralise et homogénéise en continu ces différents types de jeux de données pour les rendre facilement exploitables pour les cas d’usage.
Située dans le système cloud du client, la plate-forme modulaire donne un accès illimité et immédiat aux données afin d’en libérer tout le potentiel et toute la puissance de manière totalement sécurisée. Il suffit ensuite de gérer les droits d’accès pour ne rendre accessibles aux tiers que les données nécessaires et suffisantes dans le cadre de leurs attributions.
Vous avez le projet de faire évoluer votre territoire dans une optique de Smart City. La gouvernance des données est un facteur-clé de succès. Mais vous ne disposez peut-être pas en interne des profils et des outils nécessaires pour assurer cette Data Gouvernance.
La solution Loamics automatise ce travail de collecte, de tri et d’homogénéisation de la donnée. Vous pourrez ainsi appuyer vos décisions et vos usages métiers sur des données vérifiées, exploitables et sécurisées.
Pierre-Emmanuel-5280 a été choisi pour la rédaction de ce texte.