Skip to main content

Deuxième billet de blogue de la série sur l’IAG : naissance et évolution de la technologie

Comme le savent de nombreux adeptes de l’intelligence artificielle (IA), celle-ci a vu le jour dans les années 1950, avant de pratiquement disparaître pendant les années 1970 à 1990 pour refaire surface à la fin des années 2000. Vers le milieu des années 2010, les médias technologiques ont commencé à s’intéresser à l’IA. Plus récemment encore, le concept de l’IAG a connu un vif regain d’intérêt en tant qu’avancée majeure. Cette deuxième partie d’une série de 21 billets de blogue sur l’IAG vise à définir cette technologie et à étudier son évolution au fil du temps afin de comprendre les raisons pour lesquelles elle gagne en importance.

Qu’est-ce que l’IAG?

La réponse à une telle question varie considérablement selon la personne qui la pose. De façon générale toutefois, l’IAG peut être considérée comme un mélange d’intelligence artificielle étroite et de sciences spatiales appliquées, lesquelles sont souvent appelées systèmes d’information géographique (SIG). L’intelligence artificielle étroite est un type d’IA qui se concentre sur une tâche très spécifique (ou étroite). Quant à elle, la technologie SIG est une science appliquée dans le domaine de la géographie qui projette le monde physique sur des couches cartographiques numériques dans le cadre de diverses applications. La technologie SIG elle-même est utilisée dans un large éventail de domaines, notamment les affaires, la biologie, l’urbanisme, l’épidémiologie, la défense et même la dentisterie (essentiellement tout domaine où les problèmes ont une composante spatiale inhérente).

Plus précisément, l’IAG combine des méthodes appliquées d’intelligence artificielle étroite, ainsi que des capacités d’exploration de données et de calculs rapides au sein d’une plateforme SIG pour produire des résultats informatifs à partir de l’utilisation de données spatiales. L’IAG est un domaine hautement interdisciplinaire qui relie plusieurs domaines des sciences appliquées, notamment l’informatique, l’ingénierie, les statistiques et les sciences spatiales, à la théorie géographique. Fondamentalement, c’est ce qui définit l’IAG. Tout comme le domaine de l’IA (dont il est question dans le prochain billet de blogue) dont elle est issue, l’IAG est en constante évolution. Commençons donc par un aperçu de son histoire.

Brève histoire de l’IAG

Bien qu’il soit difficile de situer l’origine de l’IAG, nous pouvons estimer les premiers cas d’utilisation de cette technologie en déterminant les jalons marquants de l’histoire des SIG et des statistiques appliquées. La première méthode de prédiction spatiale a été mise au point par Danie Krige en 1951, puis modifiée et appliquée par Matheron en 1963. Cette méthode, appelée « krigeage », est l’une des principales techniques utilisées en géostatistique. La même année, soit en 1963, le concept de SIG a été mis au point par le Canadien anglais Roger Tomlinson. Un an plus tard, Howard Fisher de la Northwestern University a développé le premier logiciel SIG opérationnel. Avec le développement des méthodes de prédiction spatiale et le concept de SIG, on peut raisonnablement affirmer que l’IAG est née au milieu des années 1960, soit une décennie seulement après qu’Alan Turing a mis au point son célèbre test d’IA (sujet qui sera également abordé dans le prochain billet de blogue).

Les racines de l’IAG étant établies, la prochaine question est la suivante : comment a-t-elle évolué au fil du temps? Pour répondre à cette question, nous pouvons établir une frise chronologique composée de quatre générations de changements dans sept principaux domaines, soit :

  1. les technologies matérielles;
  2. l’accès aux données et leur disponibilité;
  3. le degré de connectivité;
  4. les technologies d’apprentissage automatique;
  5. les technologies logicielles;
  6. les postes liés aux SIG;
  7. les résultats.

Nous étudierons chaque génération d’IAG et l’évolution de cette dernière dans chacun de ces domaines.

Image mise au point par : Anastassios Dardas

Première génération d’IAG (du milieu des années 1960 à la fin des années 1990) : une intelligence locale limitée

La plupart des éléments qui constituaient la première génération (1G) d’IAG étaient situés localement sur un ordinateur individuel et étaient mal intégrés. D’où le titre « intelligence locale limitée ». Cette génération a été définie par les limites de la puissance de calcul et les restrictions liées à la disponibilité et à l’accessibilité des données, qui ont entravé la pleine utilisation des algorithmes d’apprentissage automatique. En outre, des « gels » ou périodes de négligence en matière d’IA se sont produits dans les années 1970 et 1990 en raison des promesses trop enthousiastes des premiers développeurs et des attentes anormalement élevées des utilisateurs finaux. Par conséquent, cette première génération d’IAG a stagné pendant trois décennies.

Technologies matérielles : Par rapport à aujourd’hui, les ordinateurs des années 1960 à la fin des années 1990 étaient dispendieux et dotés de capacités de calcul limitées. En tenant compte de l’inflation, la plupart des ordinateurs personnels coûtaient entre 3 000 et 7 000 dollars américains. La plupart des gens n’avaient pas les moyens d’acheter un ordinateur. Pas plus qu’ils ne voyaient l’intérêt d’en posséder un en raison des usages limités qu’il était possible d’en faire. À cette époque, les ordinateurs étaient principalement destinés aux grandes entreprises, aux organismes gouvernementaux et aux projets universitaires bien financés.

Accès aux données, disponibilité et stockage : À l’instar des technologies matérielles, les dispositifs de stockage de données occupaient beaucoup d’espace physique, étaient dispendieux et limités en capacité, et devaient être hébergés sur place. L’accès aux données à distance était plutôt limité, car les réseaux de systèmes informatiques, y compris Internet, n’étaient pas très développés. En effet, Internet n’a été rendu accessible au public qu’en 1991. L’accès aux données à distance se faisait généralement par l’intermédiaire de réseaux de pairs, ce qui nécessitait une communication directe entre l’hôte, les machines clientes et l’utilisateur. Les données spatiales étaient recueillies au moyen de techniques standard d’arpentage sur le terrain, d’images satellitaires et aériennes, ainsi que de bleus, qui devaient être numérisés manuellement et géoréférencés pour pouvoir être utilisés dans des applications SIG.

Connectivité : Jusqu’en 1991, Internet était réservé à l’usage des organismes gouvernementaux et d’une poignée d’institutions. C’est pourquoi la connectivité était limitée en dehors de ces domaines d’utilisation. En 1995, seulement 0,4 % de la population mondiale était connecté à Internet (principalement aux États-Unis) et utilisait des technologies d’accès commuté lentes.

Technologies d’apprentissage automatique : La plupart des techniques existantes d’apprentissage automatique ont été créées avant 2000. Les algorithmes d’apprentissage automatique courants utilisés dans les SIG comprennent le krigeage bayésien empirique (EBK), la classification de vraisemblance maximale (MLC) et le plus proche voisin. Ces techniques ont connu une utilisation limitée au cours de la première génération d’IAG, en raison d’une puissance de calcul insuffisante et de logiciels SIG inadéquats. En outre, on peut se demander s’il existe un véritable « apprentissage » automatique avec l’utilisation de ces techniques statistiques.

Technologies logicielles : Les analyses d’apprentissage automatique étaient principalement effectuées de manière programmatique. Il a fallu attendre le début des années 1990 pour que se répande l’utilisation des logiciels SIG. Le logiciel de première génération d’Esri, ArcInfo, a été l’un des premiers produits SIG commerciaux. Il a été lancé initialement en 1982, et il fonctionnait sur un mini-ordinateur de premier ordre doté de terminaux graphiques connectés. Premier logiciel de bureau à base de fenêtres, ArcView a été lancé par Esri en 1991, ce qui a conduit à une utilisation beaucoup plus répandue des SIG au moyen du système d’exploitation Microsoft Windows (et aussi Unix et Mac 9) jusqu’à sa version définitive 3.x en 2002.

Postes liés aux SIG : Avec la première génération d’IAG est né le poste d’analyste SIG. Ce dernier était responsable de traiter les données géospatiales et, le cas échéant, d’appliquer des techniques géostatistiques.

Résultats : Le résultat des premières analyses IAG était des cartes standard.

Image mise au point par : Anastassios Dardas

Deuxième génération d’IAG (2000 à la fin des années 2000) : le début des solutions d’entreprise et de l’ère du web

Comparativement à la 1G, la 2G d’IAG se caractérise par l’adoption généralisée d’Internet et des ordinateurs personnels (PC), l’amélioration des logiciels SIG, la disponibilité et l’accessibilité accrues des données et l’utilisation de géodatabases d’entreprise. Ainsi, la 2G d’IAG a été ponctuée de développements plus durables que ceux de la 1G. Par ailleurs, elle est définie par l’entrée dans l’ère du web et les débuts de la mise en œuvre de solutions d’entreprise.

Technologies matérielles : Contrairement aux ordinateurs des années 1960 à la fin des années 1990, les PC des années 2000 étaient plus rapides, abordables et conviviaux. L’adoption généralisée des ordinateurs de bureau et, dans une certaine mesure, des ordinateurs portables a été, en soi, largement fonction des progrès de la technologie en matière de puces et de dispositifs de stockage, ainsi que de l’amélioration des logiciels.

Accès aux données, disponibilité et stockage : Les dispositifs de stockage de données commençaient à devenir plus compacts (disques durs et disques flash) et abordables. C’est d’ailleurs à cette époque que l’on a commencé à les migrer vers le nuage. Plus important encore, les technologies liées aux systèmes de gestion de bases de données, y compris les interfaces et les expériences utilisateur des géodatabases d’entreprise, ont continué de prospérer. Elles ont notamment permis d’améliorer le stockage, l’accessibilité et la collaboration au sein des organisations et entre elles.

Connectivité : Internet a commencé à être utilisé de façon plus répandue avec 16 % de la population mondiale connectée en 2005. Le développement de sites web et d’interfaces de programmation d’applications (API) a commencé à augmenter. En outre, les technologies mobiles 3G ont permis de connecter les téléphones portables à Internet.

Technologies d’apprentissage automatique : Le regroupement de données basé sur des vecteurs de support et les méthodes d’apprentissage automatique non supervisées sont devenus certaines des méthodes les plus populaires pour le regroupement et la classification de données dans ArcGIS. En outre, la régression géographiquement pondérée a été conçue pendant cette période et mise en œuvre plus tard dans le logiciel principal d’ArcGIS.

Technologies logicielles : En raison des améliorations apportées aux technologies logicielles et matérielles, certaines des méthodes d’apprentissage automatique ont été mises en œuvre sous forme d’outils d’interface utilisateur dans ArcGIS Desktop. Le troisième logiciel de bureau d’Esri, ArcMap, a été lancé en 1999 et a remplacé ArcView au début des années 2000.

Postes liés aux SIG : L’analyste SIG est demeuré responsable du traitement des données géospatiales et de l’exécution d’analyses géostatistiques. Pendant la 2G, des responsabilités supplémentaires lui ont été confiées, notamment la consultation et la publication de contenu par l’intermédiaire de géodatabases d’entreprise.

Résultats : Les cartes sont demeurées la norme.

Image mise au point par : Anastassios Dardas

Troisième génération d’IAG (2010 à 2019) : le « grand » bond

La troisième génération (3G) d’IAG a vu le jour grâce à l’utilisation accrue d’Internet et d’appareils réseau personnels (c.-à-d. les téléphones intelligents et les tablettes), à des percées importantes dans les technologies SIG, d’apprentissage automatique, de stockage et de calcul, ainsi qu’à la disponibilité et l’accessibilité généralisées des données. Parallèlement à l’IA, la 3G d’IAG a connu une croissance exponentielle de son utilisation par les organismes gouvernementaux, les entreprises, les organisations non gouvernementales et les universitaires pour résoudre les problèmes spatiaux du monde réel. Esri Inc. s’est associée à d’autres entreprises technologiques (p. ex., Google, Amazon, Microsoft et Apple) pour investir dans des contenus liés à l’IA. Ces étapes importantes, franchies sur une courte période, ont fait évoluer le paradigme de l’IAG vers une nouvelle génération (3G), que nous pouvons qualifier de « grand » bond en avant dans le domaine des SIG (le terme « grand » faisant ici référence à l’arrivée des données « massives »).

Technologies matérielles : Si l’on vous avait parlé dans les années 1990 des technologies matérielles d’aujourd’hui, vous n’y auriez probablement pas cru. Les téléphones intelligents et autres appareils personnels sont si puissants qu’ils peuvent effectuer jusqu’à 5 000 milliards d’opérations d’IA par seconde (p. ex., la reconnaissance faciale et la réalité augmentée). Les PC sont devenus beaucoup plus petits et abordables, et exponentiellement plus puissants que leurs parents des années 2000 grâce à la technologie Hyperthread, aux progrès des processeurs graphiques et à l’invention des disques électroniques. Dans le domaine des unités centrales de traitement et des processeurs graphiques particulièrement, les progrès sont tous attribuables à la concurrence des entreprises de semi-conducteurs et à leur volonté de se conformer à la loi de Moore dans les 50 dernières années. Enfin, l’utilisation de l’informatique en nuage par les entreprises technologiques (p. ex., Google, Microsoft et Amazon) est devenue une méthode populaire d’analyse des données.

Accès aux données, disponibilité et stockage : Les dispositifs de stockage de données ont vu leurs capacités décupler (en téraoctets), sont devenus nettement plus abordables et ont continué d’être migrés vers le nuage (p. ex., Azure Blobs, AWS S3). Les systèmes de gestion de bases de données sont devenus plus robustes sur le plan de la sécurité, de la fiabilité et de la rapidité en raison de la demande exponentielle et de la collecte quotidienne de données « massives ». Dans ce contexte, on entend par données « massives » la collecte en temps réel de vastes quantités de données qui dépassent largement la capacité des PC standard. Pour mettre les choses en perspective, la quantité de données créées quotidiennement en 2018 était de 2,5 exaoctets (ou 50 000 Go/s)! À titre de comparaison, elle s’élevait à 100 Go/jour en 1992 et à 100 Go/s en 2002. Cette croissance est le résultat de l’explosion des API et des applications pour téléphones intelligents, qui sont devenues les principaux modèles commerciaux de nombreuses entreprises. L’externalisation ouverte est également devenue une approche populaire pour la création de données. Tous ces facteurs ont considérablement augmenté l’accessibilité et la disponibilité des données aux fins de recherche et de développement.

Connectivité : Quarante-cinq pour cent de la population mondiale était connectée à Internet en 2015 en raison du développement et des prix relativement bas des téléphones intelligents et des PC, ainsi que de l’augmentation de la couverture et de la largeur de bande des fournisseurs de services Internet. La largeur de bande a augmenté rapidement pour répondre à la demande commerciale et résidentielle à des vitesses haut débit (> 25 Mbit/s). Les câbles en fibre optique (plus de 100 Mbit/s et jusqu’à 1 Gbit/s) sont devenus une option haute vitesse pour les utilisateurs résidentiels. En outre, les technologies 4G et LTE permettent désormais d’utiliser les téléphones intelligents pour diffuser des vidéos en haute définition, jouer à des jeux et assister à des vidéoconférences.

Technologies d’apprentissage automatique : En 2009, la professeure Fei-Fei Li a lancé ImageNet, une base de données gratuite contenant plus de 14 millions d’images étiquetées, qui est utilisée chaque année dans les concours de vision par ordinateur. En 2011, les processeurs graphiques étaient puissants, suffisamment pour s’entraîner sur des réseaux de neurones convolutifs, ce qui a stimulé l’utilisation de l’apprentissage profond. De nombreux experts en IA pensent que l’apprentissage profond deviendra la technologie dorsale de l’IA, d’autant plus qu’il peut automatiquement analyser de données « massives » non structurées plus rapidement et plus précisément que les modèles d’apprentissage automatique traditionnels. Parmi des exemples de données « massives » non structurées, citons les séries temporelles, le texte, les images et les données audio. Les entreprises technologiques inondent le marché du travail de postes d’ingénieurs en sciences des données, en ingénierie des données et en apprentissage automatique. En outre, les entreprises technologiques, dont Esri Inc., investissent collectivement des milliards de dollars dans la recherche et le développement de technologies d’apprentissage automatique et d’apprentissage profond qui seront utilisées au quotidien.

Technologies logicielles : Les analyses d’apprentissage automatique sont entreprises de manière programmatique et continuent d’être mises en œuvre dans les logiciels SIG. La majorité des logiciels SIG ont été développés pour le web et les solutions d’entreprise. Les organisations utilisent ArcGIS Online et ArcGIS Enterprise pour gérer et analyser des données géospatiales « massives », et publier des cartes web interactives. Les deux solutions sont dotées d’une suite d’applications ArcGIS pour des cas d’utilisation spécifiques (p. ex., Operations Dashboard, StoryMaps, Tracker, Survey123 et ArcGIS Insights). ArcMap continue d’être utilisé comme principale solution SIG de bureau, mais ArcGIS Pro devient de plus en plus populaire, surtout parce qu’il est doté d’outils d’apprentissage profond prêts à l’emploi, de blocs-notes intégrés qui permettent d’explorer la science des données spatiales, et de la capacité de traiter des données « massives » grâce à une connexion directe à GeoAnalytics Server.

Postes liés aux SIG : En plus de traiter les données géospatiales et d’effectuer des analyses géostatistiques, l’analyste SIG est responsable de la gestion et de la publication du contenu sur ArcGIS Enterprise et ArcGIS Online, ainsi que du développement de cartes web. Il collabore également avec des scientifiques des données, un poste qui a fait son apparition lors de la 3G d’IAG et qui est responsable des applications d’IAG plus avancées (c.-à-d., l’apprentissage profond).

Résultats : Les cartes continuent d’être la norme. Cependant, les SIG web, en particulier les cartes web et les cartes récits, deviennent des options plus populaires pour communiquer les résultats.

Ainsi, le paysage de la 3G a considérablement évolué par rapport à celui de la 1G d’IAG présenté au début de ce billet. Cette évolution n’est toutefois pas encore terminée. La quatrième génération d’IAG, c’est-à-dire celle que nous vivons à l’heure actuelle, est résumée dans la figure ci-dessous et traitée ensuite.

Image mise au point par : Anastassios Dardas

Quatrième génération d’IAG (2020 à ?) : une nouvelle ère d’intelligence

Alors que la 3G d’IAG a considérablement modifié l’écosystème des SIG, de nouvelles technologies et applications se profilent à l’horizon et promettent des avancées encore plus spectaculaires dans le domaine de l’IAG. Par exemple, les appareils d’Internet des objets (IdO) et les drones sont les prochains jalons de la collecte de données « massives ». Les données en temps réel viendront compléter les approches liées à l’apprentissage profond et à la science des données, et elles ouvriront la voie à de nouveaux cas d’utilisations et d’analyses, tels que les villes intelligentes et la sémantique. Grâce à ces éléments, nous passons d’une ère de collecte et de traitement des données « massives » à des processus automatiques de prise de décisions éclairées, dirigés par des systèmes « intelligents », avec peu ou pas d’intervention humaine. C’est ce que l’on pourrait définir comme une plateforme d’apprentissage automatique plus « intelligente ». Étant donné la nature émergente de ces technologies, nous ne pouvons que spéculer sur la façon dont elles façonneront l’écosystème des SIG à l’avenir. Cependant, il est certain que nous sommes en train de passer à la 4G d’IAG.

Technologies matérielles : Les PC sont toujours populaires. De leur côté, les unités centrales de traitement, les processeurs graphiques, les capacités de mémoire principale et les dispositifs de stockage continuent de s’améliorer. Cependant, les tendances récentes suggèrent que la virtualisation, et plus particulièrement les machines virtuelles, devient le nouveau « PC » de l’informatique moderne. Cette évolution s’explique : par la possibilité de personnaliser les machines virtuelles (p. ex., les systèmes d’exploitation et les spécifications de calcul) et de les adapter aux besoins des utilisateurs; par l’extensibilité des machines virtuelles, ce qui permet d’héberger des données « massives » et des solutions d’entreprise avec peu de maintenance; et par la possibilité d’accéder au contenu à distance (dont la valeur a fait ses preuves avec la pandémie actuelle).

Bien que nous ne puissions pas être certains de la date à laquelle elle sera commercialisée, l’informatique quantique sera l’avancée la plus prometteuse dans le domaine informatique au cours des dix prochaines années. L’informatique quantique promet d’améliorer les vitesses de traitement de façon exponentielle, ce qui risque de rendre obsolètes même les ordinateurs traditionnels les plus rapides. À l’heure actuelle, les applications de l’informatique quantique dans l’IAG demeurent inconnues. Cependant, on sait qu’il sera possible de traiter de grands volumes de données et de créer des modèles d’apprentissage automatique et d’apprentissage profond plus précis qui seraient trop gourmands en calculs pour les ordinateurs actuels. Cela permettra d’améliorer les applications existantes de l’IAG et d’ouvrir la voie à de nouvelles, comme le développement de villes intelligentes, l’optimisation de la logistique et de la gestion de la chaîne d’approvisionnement, et l’amélioration des prévisions météorologiques.

Accès aux données, disponibilité et stockage : Le stockage des données continue de progresser, son prix, de diminuer et la vitesse de transfert et de téléchargement du contenu, d’augmenter. Azure, Amazon, Google et Oracle font partie des plus grands fournisseurs de services de stockage de données massives dans le nuage. Les drones et l’IdO constituent les nouveaux « appareils personnels », qui saisissent des données en temps réel et les transfèrent directement vers une plateforme d’analyse. Grâce à ces appareils de collecte de données, on estime que, d’ici 2025, 30 % des données seront recueillies en temps réel et que 463 exaoctets de données seront créés tous les jours, comparativement à 2,5 exaoctets en 2018! La collecte de données massives en temps réel et les ordinateurs quantiques pourraient permettre de surveiller, d’analyser et de modifier nos activités quotidiennes en temps quasi réel. On peut penser aux villes qui souhaiteront adopter des initiatives « plus intelligentes » pour désengorger la circulation en réorientant les véhicules en temps réel.

Connectivité : Grâce à l’augmentation continue de l’utilisation de téléphones intelligents et d’appareils personnels ainsi qu’à l’amélioration de la couverture Internet, 60 % de la population mondiale dispose maintenant d’un accès web. Les technologies 4G et LTE ont été mises en œuvre à l’échelle mondiale, et la technologie 5G se profile à l’horizon dans les pays développés. Elle promet notamment des connexions d’une rapidité fulgurante (de 10 à 100 fois plus rapides que la 4G), ce qui permettrait aux appareils connectés à l’IdO et aux voitures autonomes de communiquer entre eux.

Technologies d’apprentissage automatique : On ne sait pas exactement quelle sera la prochaine technologie d’apprentissage automatique. Il est toutefois clair que l’utilisation des réseaux antagonistes génératifs (RAG), de l’apprentissage par renforcement et de l’apprentissage par transfert sera généralisée. Ces types d’algorithmes d’apprentissage et la façon dont ils sont appliqués aux SIG seront abordés plus tard dans cette série de billets de blogue (en particulier l’apprentissage par transfert). Le traitement automatique des langues (TAL) et l’IA sémantique font partie des autres technologies d’apprentissage automatique émergentes. Le TAL permet aux ordinateurs d’interpréter et d’analyser le langage humain afin de parcourir automatiquement des textes, de classer des documents et d’analyser les sentiments. Pour appliquer cette technologie aux SIG, il faut compléter les données géospatiales existantes par d’autres sources de renseignements (comme les critiques de restaurants ou les évaluations de la sécurité sur la route), qui sont ensuite analysées par l’IA sémantique. Cette technologie vise à déterminer la signification des données, plutôt qu’en établir des statistiques, au moyen de graphes de connaissances ou d’ontologies. Les ontologies permettent aux ordinateurs de comprendre et de traiter efficacement des requêtes de type humaines (par exemple, quel est l’itinéraire le plus rapide en ce moment?). En appliquant des ontologies à un SIG, nous pouvons éliminer les silos de données massives (c’est-à-dire, que les données massives soient hébergées dans des systèmes de dépôt sans être reliées ou modélisées). Ces silos entraînent un problème de synergie, une duplication des efforts, des occasions ratées d’enrichissement des données et des processus géospatiaux potentiellement inefficaces. L’intégration d’ontologies à une plateforme de SIG pour relier des magasins de données massives permet de simplifier des processus géospatiaux complexes, de minimiser l’utilisation de l’apprentissage automatique et de résoudre des problèmes difficiles nécessitant des mises à jour en temps réel (par exemple, déterminer l’itinéraire optimal sans travaux de construction et congestion pour les véhicules d’urgence). Elles peuvent être employées dans n’importe quelle application SIG, en particulier celles qui reposent sur des données en temps réel (comme les villes intelligentes et les solutions de logistique). On obtient alors un système intelligent avec une utilisation minimale de l’apprentissage automatique.

Technologies logicielles : Les analyses d’apprentissage automatique sont effectuées de manière programmatique et continueront à être mises en œuvre dans les logiciels SIG. L’API d’ArcGIS pour Python, plus particulièrement le module d’apprentissage, dispose de fonctions robustes d’apprentissage profond et de TAL afin de traiter le contenu des SIG localement et sur le web. ArcGIS Pro est désormais le logiciel SIG haut de gamme permettant aux utilisateurs d’analyser et de publier du contenu sur ArcGIS Online et ArcGIS Enterprise, les solutions qui dominent l’écosystème d’IAG sur le web en matière d’analyse géospatiale (y compris les données massives). ArcGIS Notebooks a récemment été intégrée à ArcGIS Online et à ArcGIS Enterprise afin d’améliorer l’expérience de l’utilisateur en science des données spatiales dans un environnement SIG en ligne. Cette application comprend ArcPy, l’API d’ArcGIS pour Python ainsi que 300 bibliothèques Python tierces afin que l’utilisateur puisse facilement effectuer les tâches suivantes : 1) analyser des données massives, 2) développer des modèles précis en matière d’apprentissage profond et de science des données spatiales, 3) créer des outils de visualisation dynamique, 4) partager des flux de travaux de façon sécurisée, 5) profiter d’une collaboration interéquipe transparente et 6) planifier et automatiser des processus administratifs d’un SIG web. Le plus récent produit ArcGIS Online, ArcGIS Analytics for IoT, recueille des données en temps réel à partir d’appareils connectés à l’IdO, ce qui permet aux analystes SIG d’utiliser de nombreuses procédures d’IAG pour explorer de l’information spatiale et en générer à partir de flux constants de données massives.

Postes liés aux SIG : Le rôle de l’analyste SIG demeure le même qu’avec la 3G d’IAG. Toutefois, il est possible que le besoin en diplômés avec des compétences équivalentes à celles d’un « spécialiste en IAG » augmente. Le spécialiste en IAG devra avoir d’excellentes connaissances en SIG et disposer des compétences d’un scientifique des données, notamment pour la création de modèles sémantiques et d’apprentissage profond dans la dimension spatiale.

Résultats : Il est clair que les cartes continueront d’être le résultat des SIG. Après tout, le contenu cartographié est le cœur de cette technologie. Toutefois, des cartes web dynamiques et interactives avec des données en temps réel deviendront la façon la plus efficace de présenter des renseignements. De plus, il est facile d’imaginer qu’une plateforme d’IAG pourrait générer automatiquement des cartes web et transmettre l’information importante à l’analyste SIG, et ce, avec une efficacité sans failles. Si cette possibilité se concrétise, nous disposerions alors d’une véritable intelligence humaine augmentée grâce à l’IAG. 

Résumé

En résumé, ce billet de blogue explique que les avancées simultanées de sept facteurs clés ont défini l’évolution de l’IAG depuis sa création dans les années 1950, soit durant trois et bientôt quatre générations. Les principes fondamentaux de cette technologie demeurent les mêmes. Toutefois, ses méthodes et ses applications ont considérablement modifié l’écosystème des SIG, en particulier au cours de la dernière décennie. Nous entrons dans une nouvelle ère de l’IAG (la 4G), une ère qui offre des occasions excitantes pour les professionnels du domaine des SIG. Le prochain billet de blogue sera consacré à l’intelligence artificielle, à l’apprentissage automatique et à l’apprentissage profond, ainsi qu’à leur incidence sur la formation des utilisateurs et des spécialistes des SIG.

Ce billet a été écrit en anglais par Anastassios Dardas et peut être consulté ici.