Le géospatial est-il encore face à un gouffre? L’abîme est plus grand que jamais
En 2008, en tant que rédacteur en chef de Directions Magazine, j’ai écrit un article intitulé GIS Next – A Chasm Crossed (SIG – À venir : le gouffre sera franchi). À cette époque, je suggérais que la diversité des applications et des acteurs du marché s’était considérablement élargie et que les systèmes d’information géographique (SIG) allaient s’intégrer dans d’autres logiciels de technologie d’entreprise. Ils cesseraient donc d’exister en tant que solution logicielle de niche.
De plus en plus d’applications, telles que la veille économique et les bases de données d’entreprise, avaient déjà commencé à prendre en charge des données géographiques primitives pour effectuer des requêtes et des visualisations géospatiales standard. Je pensais aussi que l’acronyme « SIG » allait disparaître et, en effet, aujourd’hui, le terme « géospatial » ou « intelligence géospatiale » décrit plus justement ce secteur technologique. Il est d’ailleurs plus largement adopté dans le jargon.
De nos jours, près de 15 ans plus tard, le gouffre n’a pas seulement été franchi, il semble ne plus exister. La technologie géospatiale est en effet intégrée dans tant d’applications que les cartes et les données sont obligatoires dans les logiciels d’entreprise, de Salesforce à Snowflake. Le fait que l’on s’attende à trouver des capacités de géotraitement partout, des logiciels de gestion de la relation client (GRC) à la veille économique en passant par les solutions sur le nuage, suggère que, quelle que soit l’éducation qui était requise sur le marché il y a 15 ans, elle est actuellement « moindre » qu’elle ne l’était à l’époque. Puis, dans l’espace des applications mobiles, les cartes sont considérées comme un outil de visualisation précieux, parfois indispensable. En fin de compte… le géospatial n’est plus si spécial.
Ici, cependant, je souhaiterais contester ma propre théorie. En raison du volume croissant de données de localisation, les capacités et la complexité de la technologie géospatiale ont également dû progresser. Les données mobiles et l’imagerie satellite favorisent une demande d’analyses plus « hyperlocales » partout, des dépenses de consommation à la publicité mobile ciblée en passant par l’intelligence artificielle (IA) avancée pour la reconnaissance des caractéristiques avec des données d’observation de la Terre obtenues par télédétection. En conséquence, le gouffre qui existe entre ce que la communauté professionnelle de la technologie géospatiale produit et les possibilités que les utilisateurs potentiels connaissent est considérable.
Laissez-moi vous expliquer davantage ce point. Les utilisateurs de solutions d’intelligence d’affaires d’aujourd’hui qui font appel aux données et aux technologies géospatiales commencent tout juste à se familiariser avec les bases de l’utilisation des analyses isochrones et d’isodistance dans les zones de chalandise ou de l’utilisation de modèles origine-destination pour l’analyse des transports, pour ne citer que ces deux exemples. Il y a quinze ans, l’utilisation de zones commerciales basées sur des codes postaux ou des groupes d’îlots de recensements était suffisante. Ce n’est pas le cas à l’heure actuelle.
Les utilisateurs professionnels comprennent la valeur des données de localisation et utilisent davantage de données au mieux de leurs capacités. Si l’on devait trouver un côté positif à la pandémie, citons l’utilisation par l’Université Johns Hopkin d’un tableau de bord permettant de démontrer géographiquement la propagation de la COVID-19. Il était visuellement instructif. Il fournissait des « réponses » et pas seulement des données. L’exploration des régions spécifiques où des pics d’infection se produisaient conduisait à prendre des mesures politiques.
De plus, nous voyons de plus grandes entreprises, comme dans le secteur des assurances, déployer le géotraitement natif sur le nuage pour effectuer des contrôles de qualité des données de vérification d’adresse et le géocodage des assurés pour lesquels une liste d’adresses très précise est requise. Par conséquent, posséder des adresses précises permet de prendre en charge des modèles de risque complexes, car la quantité de données pouvant être incorporées dans les modèles a augmenté et s’est améliorée. Toutefois, l’utilisation de ces données et logiciels n’est pas omniprésente. Chez Korem, c’est le constat que nous faisons en travaillant avec nos clients assureurs, du secteur bancaire ou du commerce de détail, mais d’autres s’en rendent également compte.
IDC, la société d’études de marché, observe des tendances similaires et signale que 54 % des entreprises sont confrontées à un manque d’intelligence géospatiale. Le Boston Consulting Group rapporte que seulement 15 % des entreprises interrogées sont considérées comme étant des leaders de l’« intelligence géospatiale ». Une enquête menée par Splunk indique que 55 % des données collectées par les organisations ne sont pas utilisées, car ces dernières ne savent pas qu’elles les possèdent ou ne savent pas comment les utiliser.
Les outils logiciels qui intègrent désormais davantage d’analyses géospatiales comme Tableau sont bien meilleurs aujourd’hui pour prendre en charge les types de requêtes auxquelles les utilisateurs s’attendent pour obtenir des réponses. Les flux de travail avec des outils tels que ceux fournis par Alteryx ont une fonction de conception pour entreprises qui aide les utilisateurs à créer des flux de travail très sophistiqués pour répondre à des questions complexes grâce à l’intégration de données. Ce sont des outils fantastiques, mais qui nécessitent également des utilisateurs dévoués et expérimentés.
Écoutez ce podcast sur les solutions d’intelligence d’affaires »
Et donc, voici où se trouve l’écart : les outils de veille économique sont meilleurs; les outils d’intégration de données sont très complets; les utilisateurs ont besoin à la fois d’une expérience accrue avec les outils et d’une compréhension des types de données pour répondre à des questions complexes. Ainsi, davantage d’outils et de données mettent de la pression sur les fournisseurs pour qu’ils continuent à ajouter plus de fonctionnalités. Par conséquent, l’écart continue de se creuser entre la complexité de la technologie et les personnes qui ont besoin d’en connaître les possibilités, ne serait-ce que du fait qu’il existe une demande pour davantage d’analyses de données.
En bref, l’écart entre la technologie et l’expertise continue de s’élargir à mesure que la technologie et l’appétit pour les nouvelles données et solutions progressent également.
Vous direz peut-être que c’est le cas pour toutes les technologies innovantes, en particulier de nos jours. Ici, je vous dirai que « le spatial est spécial ». Pourquoi? Parce que la Terre change chaque jour; les individus sont constamment en mouvement; les véhicules sont plus des ordinateurs que des pneus et de l’acier et sont de plus en plus connectés aux capteurs routiers et satellites; et chaque transaction financière est enregistrée en fonction de son emplacement.
Pour vous donner une idée de la quantité de données de localisation générées, on estime que les voitures connectées généreront 300 téraoctets chaque année et s’appuieront sur des cartes haute définition de plusieurs gigaoctets, selon Strategy Analytics. De plus, dans un article publié par Data Center Frontier, les sociétés commerciales d’imagerie par satellite collectent plus de 100 téraoctets de données par jour ou 36 pétaoctets par an! En comparaison, Earthweb signale que YouTube stocke 76 pétaoctets de vidéos par an.
D’autres sociétés géospatiales telles que Foursquare rapportent qu’elles ont collecté plus de 100 millions de points d’intérêt dans le monde, chacun avec une attribution. Ecopia rapporte avoir collecté 173 millions d’empreintes de bâtiments et plus de 240 millions d’adresses. Les messages sur WhatsApp, les tweets, les publications sur Facebook, les entraînements sur Strava, ainsi que les données de capteurs de pollution, de compteurs intelligents, etc. diffusent tous des données de localisation. Les volumes s’accumulent.
Prenons un exemple plus près de chez nous. L’un de nos clients souhaitait en savoir plus sur le comportement des consommateurs et leur activité à proximité de certains emplacements physiques. Il a déterminé qu’il avait besoin de données sur les empreintes des bâtiments. Cependant, télécharger les enregistrements des administrations de chaque comté et de chaque ville où des données existaient était fastidieux. Il n’était tout simplement pas au courant de l’existence de données nationales sur les empreintes des bâtiments, comme mentionné ci-dessus.
« Je n’avais pas le temps d’aller sur les sites Web de 3 000 comtés et d’extraire les données SIG de ces 3 000 sites Web, puis de les transformer en informations utiles », a déclaré Ben Edelman, consultant principal chez Dun & Bradstreet. Notre client ne savait pas quelles informations il ignorait.
De nos jours, il est presque impossible de connaître tous les fournisseurs de produits ayant accès à des données et tous les fournisseurs de logiciels capables de traiter des données géospatiales. Récemment, Safegraph a proposé un projet pour capturer uniquement l’écosystème de données géospatiales, dans lequel il a identifié environ 150 fournisseurs uniques. En outre, il existe davantage de fournisseurs de SIG non traditionnels proposant des logiciels à géolocalisation activée. L’écosystème de la technologie géospatiale est désormais considérable et en croissance. Le gouffre entre le besoin de données très précises et à jour est considérable, et les utilisateurs font face à un abîme.