{"id":470946,"date":"2024-07-09T05:47:13","date_gmt":"2024-07-09T05:47:13","guid":{"rendered":"https:\/\/proxycompass.com\/?p=470946"},"modified":"2024-07-09T05:47:14","modified_gmt":"2024-07-09T05:47:14","slug":"what-is-web-scraping-and-how-it-works","status":"publish","type":"post","link":"https:\/\/proxycompass.com\/fr\/what-is-web-scraping-and-how-it-works\/","title":{"rendered":"Qu\u2019est-ce que le Web Scraping et comment \u00e7a marche ?"},"content":{"rendered":"<p>Vous \u00eates confus et vous voulez savoir ce qu&#039;est le web scraping et comment il fonctionne ?<\/p>\n\n\n\n<p>Eh bien, vous \u00eates au bon endroit car nous sommes sur le point de tout expliquer pour vous.<\/p>\n\n\n\n<p>Avant de plonger dans le vif du sujet, je peux d\u00e9j\u00e0 vous donner la version courte\u00a0:<\/p>\n\n\n\n<p>Le web scraping est le processus d&#039;extraction de donn\u00e9es accessibles au public \u00e0 partir d&#039;un site Web.<\/p>\n\n\n\n<p>Rejoignez-nous pour en savoir plus sur les sp\u00e9cificit\u00e9s, son fonctionnement et les biblioth\u00e8ques populaires qui existent.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Qu\u2019est-ce que le Web Scraping ?<\/h2>\n\n\n\n<p>Fondamentalement, le web scraping est une proc\u00e9dure qui permet d\u2019extraire un grand volume de donn\u00e9es d\u2019un site web. Pour cela, il est n\u00e9cessaire d&#039;utiliser un \u00ab web scraper \u00bb comme ParseHub ou si vous savez coder, d&#039;utiliser l&#039;une des nombreuses biblioth\u00e8ques open source disponibles.<\/p>\n\n\n\n<p>Apr\u00e8s un certain temps pass\u00e9 \u00e0 le configurer et \u00e0 le peaufiner (tenez-vous-en aux biblioth\u00e8ques Python ou aux outils sans code si vous \u00eates nouveau ici), votre nouveau jouet commencera \u00e0 explorer le site Web pour localiser les donn\u00e9es souhait\u00e9es et les extraire. Il sera ensuite converti dans un format sp\u00e9cifique comme CSV, afin que vous puissiez ensuite tout acc\u00e9der, inspecter et g\u00e9rer.<\/p>\n\n\n\n<p>Et comment le web scraper obtient-il les donn\u00e9es sp\u00e9cifiques d&#039;un produit ou d&#039;un contact ?<\/p>\n\n\n\n<p>Vous vous demandez peut-\u00eatre \u00e0 ce stade\u2026<\/p>\n\n\n\n<p>Eh bien, cela est possible avec un peu de connaissances en HTML ou en CSS. Il vous suffit de faire un clic droit sur la page que vous souhaitez gratter, de s\u00e9lectionner \u00ab\u00a0Inspecter l&#039;\u00e9l\u00e9ment\u00a0\u00bb et d&#039;identifier l&#039;ID ou la classe utilis\u00e9e.<\/p>\n\n\n\n<p>Une autre fa\u00e7on consiste \u00e0 utiliser XPath ou des expressions r\u00e9guli\u00e8res.<\/p>\n\n\n\n<p>Vous n&#039;\u00eates pas codeur ? Pas de soucis!<\/p>\n\n\n\n<p>De nombreux outils de scraping Web offrent une interface conviviale dans laquelle vous pouvez s\u00e9lectionner les \u00e9l\u00e9ments que vous souhaitez r\u00e9cup\u00e9rer et sp\u00e9cifier les donn\u00e9es que vous souhaitez extraire. Certains d\u2019entre eux disposent m\u00eame de fonctionnalit\u00e9s int\u00e9gr\u00e9es qui automatisent le processus d\u2019identification de tout pour vous.<\/p>\n\n\n\n<p>Continuez \u00e0 lire, dans la section suivante, nous en parlerons plus en d\u00e9tail.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Comment fonctionne le Web Scraping ?<\/h2>\n\n\n\n<p>Supposons que vous deviez collecter des donn\u00e9es \u00e0 partir d\u2019un site Web, mais les saisir une par une prendra beaucoup de temps. Eh bien, c\u2019est l\u00e0 que le web scraping entre en sc\u00e8ne.<\/p>\n\n\n\n<p>C&#039;est comme avoir un petit robot capable de r\u00e9cup\u00e9rer facilement les informations particuli\u00e8res que vous souhaitez sur des sites Web. Voici un aper\u00e7u du fonctionnement typique de ce processus\u00a0:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Envoi d&#039;une requ\u00eate HTTP au site Web cible\u00a0:<\/strong> C\u2019est le terrain sur lequel tout se d\u00e9veloppe. Une requ\u00eate HTTP permet au web scraper d&#039;envoyer une requ\u00eate au serveur sur lequel le site Web en question est h\u00e9berg\u00e9. Cela se produit lorsque l\u2019on tape une URL ou clique sur un lien. La demande comprend les d\u00e9tails de l&#039;appareil et du navigateur que vous utilisez.<br><\/li>\n\n\n\n<li><strong>Analyse du code source HTML\u00a0: <\/strong>Le serveur renvoie le code HTML de la page Web compos\u00e9 de la structure de la page et du contenu de la page, y compris le texte, les images, les liens, etc. Le grattoir Web traite cela \u00e0 l&#039;aide de biblioth\u00e8ques telles que BeautifulSoup si vous utilisez Python ou DOMParser si vous utilisez JavaScript. Cela permet d&#039;identifier les \u00e9l\u00e9ments requis qui contiennent les valeurs d&#039;int\u00e9r\u00eat.<br><\/li>\n\n\n\n<li><strong>Extraction de donn\u00e9es:<\/strong> Apr\u00e8s les \u00e9l\u00e9ments identifi\u00e9s, le web scraper capture les donn\u00e9es requises. Cela implique de se d\u00e9placer dans la structure HTML, de choisir certaines balises ou attributs, puis d&#039;obtenir le texte ou d&#039;autres donn\u00e9es \u00e0 partir de ces balises\/attributs.<br><\/li>\n\n\n\n<li><strong>Transformation des donn\u00e9es\u00a0: <\/strong>Les donn\u00e9es extraites peuvent \u00eatre dans un format qui n&#039;est pas pr\u00e9f\u00e9r\u00e9. Ces donn\u00e9es Web sont nettoy\u00e9es et normalis\u00e9es, puis converties dans un format tel qu&#039;un fichier CSV, un objet JSON ou un enregistrement dans une base de donn\u00e9es. Cela peut impliquer d\u2019effacer certains caract\u00e8res inutiles, de modifier le type de donn\u00e9es ou de les mettre sous forme de tableau.<br><\/li>\n\n\n\n<li><strong>Stockage de donn\u00e9es:<\/strong> Les donn\u00e9es sont nettoy\u00e9es et structur\u00e9es pour une analyse ou une utilisation future avant d&#039;\u00eatre stock\u00e9es. Cela peut \u00eatre r\u00e9alis\u00e9 de plusieurs mani\u00e8res, par exemple en l&#039;enregistrant dans un fichier, dans une base de donn\u00e9es ou en l&#039;envoyant \u00e0 une API.<br><\/li>\n\n\n\n<li><strong>R\u00e9p\u00e9tez l&#039;op\u00e9ration pour plusieurs pages\u00a0: <\/strong>Si vous demandez au scraper de collecter des donn\u00e9es sur plusieurs pages, il r\u00e9p\u00e9tera les \u00e9tapes 1 \u00e0 5 pour chaque page, en parcourant les liens ou en utilisant la pagination. Certains d&#039;entre eux (pas tous !) peuvent m\u00eame g\u00e9rer du contenu dynamique ou des pages rendues en JavaScript.<br><\/li>\n\n\n\n<li><strong>Post-traitement (facultatif)\u00a0:<\/strong> Une fois que tout est termin\u00e9, vous devrez peut-\u00eatre effectuer un filtrage, un nettoyage ou une d\u00e9duplication pour pouvoir tirer des enseignements des informations extraites.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\">Applications du Web Scraping<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Surveillance des prix et analyse de la concurrence pour le e-commerce<\/h3>\n\n\n\n<p>Si vous avez une entreprise de commerce \u00e9lectronique, le web scraping peut \u00eatre b\u00e9n\u00e9fique pour vous dans ce sc\u00e9nario.<\/p>\n\n\n\n<p>C&#039;est exact.<\/p>\n\n\n\n<p>Avec l&#039;aide de cet outil, vous pouvez surveiller les prix en permanence et suivre la disponibilit\u00e9 des produits et les promotions propos\u00e9es par les concurrents. Vous pouvez \u00e9galement profiter des donn\u00e9es extraites avec le web scraping pour suivre les tendances et d\u00e9couvrir de nouvelles opportunit\u00e9s de march\u00e9.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">G\u00e9n\u00e9ration de leads et intelligence commerciale<\/h3>\n\n\n\n<p>Vous cherchez \u00e0 constituer une liste de clients potentiels mais soupirez profond\u00e9ment \u00e0 l\u2019id\u00e9e du temps qu\u2019il vous faudra pour accomplir cette t\u00e2che ? Vous pouvez laisser le web scraping le faire rapidement pour vous.<\/p>\n\n\n\n<p>Il vous suffit de programmer cet outil pour analyser de nombreux sites Web et extraire toutes les donn\u00e9es qui int\u00e9ressent votre liste de clients, telles que les coordonn\u00e9es et les d\u00e9tails de l&#039;entreprise. Ainsi, avec le web scraping, vous pouvez obtenir un grand volume de donn\u00e9es \u00e0 analyser, mieux d\u00e9finir vos objectifs de vente et obtenir les prospects que vous souhaitez tant.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Annonces immobili\u00e8res et \u00e9tudes de march\u00e9<\/h3>\n\n\n\n<p>L\u2019immobilier est un autre sc\u00e9nario dans lequel les vertus du web scraping sont exploit\u00e9es. Avec cet outil, il est possible d&#039;explorer une grande quantit\u00e9 de sites Web li\u00e9s \u00e0 l&#039;immobilier pour g\u00e9n\u00e9rer une liste de propri\u00e9t\u00e9s.<\/p>\n\n\n\n<p>Ces donn\u00e9es peuvent ensuite \u00eatre utilis\u00e9es pour suivre les tendances du march\u00e9 (\u00e9tudier les pr\u00e9f\u00e9rences des acheteurs) et reconna\u00eetre quelles propri\u00e9t\u00e9s sont sous-\u00e9valu\u00e9es. L\u2019analyse de ces donn\u00e9es peut \u00e9galement \u00eatre d\u00e9cisive dans les d\u00e9cisions d\u2019investissement et de d\u00e9veloppement au sein du secteur.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Analyse des sentiments sur les r\u00e9seaux sociaux<\/h3>\n\n\n\n<p>Si vous cherchez \u00e0 comprendre le sentiment des consommateurs envers certaines marques, certains produits ou simplement \u00e0 voir quelles sont les tendances dans un secteur sp\u00e9cifique au sein des r\u00e9seaux sociaux, la meilleure fa\u00e7on de faire tout cela est d&#039;utiliser le web scraping.<\/p>\n\n\n\n<p>Pour y parvenir, mettez votre scraper en action pour collecter des publications, des commentaires et des avis. Les donn\u00e9es extraites des r\u00e9seaux sociaux peuvent \u00eatre utilis\u00e9es avec la PNL ou l&#039;IA pour pr\u00e9parer des strat\u00e9gies marketing et v\u00e9rifier la r\u00e9putation d&#039;une marque.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Recherche acad\u00e9mique et scientifique<\/h3>\n\n\n\n<p>Sans aucun doute, l\u2019\u00e9conomie, la sociologie et l\u2019informatique sont les secteurs qui b\u00e9n\u00e9ficient le plus du web scraping.<\/p>\n\n\n\n<p>En tant que chercheur dans l&#039;un de ces domaines, vous pouvez utiliser les donn\u00e9es obtenues avec cet outil pour les \u00e9tudier ou r\u00e9aliser des revues bibliographiques. Vous pouvez \u00e9galement g\u00e9n\u00e9rer des ensembles de donn\u00e9es \u00e0 grande \u00e9chelle pour cr\u00e9er des mod\u00e8les statistiques et des projets ax\u00e9s sur l&#039;apprentissage automatique.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Meilleurs outils et biblioth\u00e8ques de Web Scraping<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Python<\/h3>\n\n\n\n<p>Si vous d\u00e9cidez de r\u00e9aliser des projets de web scraping, vous ne pouvez pas vous tromper avec Python !<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>BelleSoup\u00a0:<\/strong> cette biblioth\u00e8que est charg\u00e9e d&#039;analyser les documents HTML et XML, \u00e9tant \u00e9galement compatible avec diff\u00e9rents analyseurs.<\/li>\n\n\n\n<li><strong>Scrapy\u00a0:<\/strong> un framework de scraping Web puissant et rapide. Pour l&#039;extraction de donn\u00e9es, il dispose d&#039;une API de haut niveau.<\/li>\n\n\n\n<li><strong>S\u00e9l\u00e9nium: <\/strong>cet outil est capable de g\u00e9rer des sites Web dont le code source contient une charge JavaScript consid\u00e9rable. Il peut \u00e9galement \u00eatre utilis\u00e9 pour r\u00e9cup\u00e9rer du contenu dynamique.<\/li>\n\n\n\n<li><strong>Demandes\u00a0:<\/strong> gr\u00e2ce \u00e0 cette biblioth\u00e8que, vous pouvez effectuer des requ\u00eates HTTP dans une interface simple et \u00e9l\u00e9gante.<\/li>\n\n\n\n<li><strong>URLlib\u00a0:<\/strong> Ouvre et lit les URL. Comme Requests, il poss\u00e8de une interface mais avec un niveau inf\u00e9rieur, vous ne pouvez donc l&#039;utiliser que pour des t\u00e2ches de base de web scraping.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Javascript<\/h3>\n\n\n\n<p>JavaScript est un tr\u00e8s bon deuxi\u00e8me concurrent pour le web scraping, notamment avec Playwright.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Marionnettiste: <\/strong>gr\u00e2ce \u00e0 cette biblioth\u00e8que Node.js \u00e9quip\u00e9e d&#039;une API de haut niveau vous pouvez avoir la possibilit\u00e9 de g\u00e9rer une version headless du navigateur Chrome ou Chromium pour le web scraping.<br><\/li>\n\n\n\n<li><strong>Bravo\u00a0: <\/strong>similaire \u00e0 jQuery, cette biblioth\u00e8que vous permet d&#039;analyser et de manipuler du HTML. Pour ce faire, il dispose d\u2019une syntaxe facile \u00e0 ma\u00eetriser.<br><\/li>\n\n\n\n<li><strong>Axios\u00a0:<\/strong> cette biblioth\u00e8que populaire vous offre une API simple pour effectuer des requ\u00eates HTTP. Il peut \u00e9galement \u00eatre utilis\u00e9 comme alternative au module HTTP int\u00e9gr\u00e9 \u00e0 Node.js.<br><\/li>\n\n\n\n<li><strong>Dramaturge:<\/strong> Semblable \u00e0 Puppeteer, c&#039;est une biblioth\u00e8que Node.js mais plus r\u00e9cente et meilleure. Il a \u00e9t\u00e9 d\u00e9velopp\u00e9 par Microsoft, et contrairement \u00e0 Windows 11 ou au navigateur Edge, ce n&#039;est pas nul ! Offre des fonctionnalit\u00e9s telles que la compatibilit\u00e9 entre navigateurs et l\u2019attente automatique.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Rubis<\/h3>\n\n\n\n<p>Je n&#039;ai jamais touch\u00e9 une seule ligne de code Ruby de ma vie, mais en recherchant cet article, j&#039;ai vu certains utilisateurs sur Reddit jurer que c&#039;est mieux que Python pour le scraping. Ne me demandez pas pourquoi.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>M\u00e9caniser:<\/strong> en plus d&#039;extraire des donn\u00e9es, cette biblioth\u00e8que Ruby peut \u00eatre programm\u00e9e pour remplir des formulaires et cliquer sur des liens. Il peut \u00e9galement \u00eatre utilis\u00e9 pour la gestion et l\u2019authentification des pages JavaScript.<br><\/li>\n\n\n\n<li><strong>Nokogiri\u00a0: <\/strong>une biblioth\u00e8que capable de traiter le code source HTML et XML. Il prend en charge les s\u00e9lecteurs XPath et CSS.<br><\/li>\n\n\n\n<li><strong>Partie HTTP\u00a0: <\/strong>dispose d&#039;une interface intuitive qui vous permettra d&#039;effectuer plus facilement des requ\u00eates HTTP au serveur, afin qu&#039;il puisse \u00eatre utilis\u00e9 comme base pour des projets de web scraping.<br><\/li>\n\n\n\n<li><strong>Kimura\u00ef\u00a0: <\/strong>Il s&#039;appuie sur Mechanize et Nokogiri. Il a une meilleure structure et g\u00e8re des t\u00e2ches telles que l&#039;exploration de plusieurs pages, la gestion des cookies et la gestion de JavaScript.<br><\/li>\n\n\n\n<li><strong>Wombat:<\/strong> Un joyau Ruby sp\u00e9cialement con\u00e7u pour le web scraping. Il fournit un DSL (Domain Specific Language) qui facilite la d\u00e9finition des r\u00e8gles de scraping.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">PHP<\/h3>\n\n\n\n<p>Il suffit de le lister pour avoir un article complet, mais n&#039;utilisez pas PHP pour le scraping.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Goutte\u00a0: <\/strong>con\u00e7u sur les composants BrowserKit et DomCrawler de Symfony. Cette biblioth\u00e8que dispose d&#039;une API que vous pouvez utiliser pour parcourir des sites Web, cliquer sur des liens et collecter des donn\u00e9es.<br><\/li>\n\n\n\n<li><strong>Analyseur HTML DOM simple\u00a0:<\/strong> l&#039;analyse des documents HTML et XML est possible avec cette biblioth\u00e8que. Gr\u00e2ce \u00e0 sa syntaxe de type jQuery, il peut \u00eatre utilis\u00e9 pour manipuler le DOM.<br><\/li>\n\n\n\n<li><strong>Bouffer:<\/strong> son API de haut niveau permet de faire des requ\u00eates HTTP et de g\u00e9rer les diff\u00e9rentes r\u00e9ponses que vous pouvez obtenir en retour.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Java<\/h3>\n\n\n\n<p>Quelles sont les biblioth\u00e8ques que Java met \u00e0 disposition pour le web scraping ? Voyons:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>JSoup\u00a0:<\/strong> analyser et extraire des \u00e9l\u00e9ments d&#039;une page Web ne sera pas un probl\u00e8me avec cette biblioth\u00e8que, qui dispose d&#039;une API simple pour vous aider \u00e0 accomplir cette mission.<br><\/li>\n\n\n\n<li><strong>S\u00e9l\u00e9nium:<\/strong> vous permet de g\u00e9rer des sites Web avec une charge \u00e9lev\u00e9e de JavaScript dans son code source, afin que vous puissiez extraire toutes les donn\u00e9es dans ce format qui vous int\u00e9ressent.<br><\/li>\n\n\n\n<li><strong>Client HTTP Apache\u00a0: <\/strong>utilisez l&#039;API de bas niveau fournie par cette biblioth\u00e8que pour effectuer des requ\u00eates HTTP.<br><\/li>\n\n\n\n<li><strong>Unit\u00e9 HTML\u00a0:<\/strong> Cette biblioth\u00e8que simule un navigateur Web sans interface graphique (c&#039;est-\u00e0-dire sans t\u00eate) et vous permet d&#039;interagir avec des sites Web par programme. Particuli\u00e8rement utile pour les sites utilisant beaucoup de JavaScript et pour imiter les actions des utilisateurs comme cliquer sur des boutons ou remplir des formulaires.<br><\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\">R\u00e9flexions finales sur toute cette histoire de grattage du Web<\/h2>\n\n\n\n<p>J&#039;esp\u00e8re que c&#039;est clair maintenant : le web scraping est tr\u00e8s puissant entre de bonnes mains !<\/p>\n\n\n\n<p>Maintenant que vous savez de quoi il s&#039;agit et les bases de son fonctionnement, il est temps d&#039;apprendre \u00e0 l&#039;impl\u00e9menter dans votre flux de travail. Une entreprise peut en b\u00e9n\u00e9ficier de plusieurs mani\u00e8res.<\/p>\n\n\n\n<p>Les langages de programmation comme Python, JavaScript et Ruby sont les rois incontest\u00e9s du web scraping. Vous pourriez utiliser PHP pour cela\u2026 Mais pourquoi ? Juste pourquoi!?<\/p>\n\n\n\n<p>S\u00e9rieusement, n&#039;utilisez pas PHP pour le web-scraping, que ce soit sur WordPress et Magento.<\/p>","protected":false},"excerpt":{"rendered":"<p>Confused and want to know what in the world web scraping is and how it works? Well you&#8217;ve come to the right place because we&#8217;re about to lay down everything for you. Before we dive in, I can already tell you the short version: Web scraping is the process of extracting publicly available data from [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":470948,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[35],"tags":[],"class_list":["post-470946","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-articles"],"acf":[],"_links":{"self":[{"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/posts\/470946","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/comments?post=470946"}],"version-history":[{"count":1,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/posts\/470946\/revisions"}],"predecessor-version":[{"id":470947,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/posts\/470946\/revisions\/470947"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/media\/470948"}],"wp:attachment":[{"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/media?parent=470946"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/categories?post=470946"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/proxycompass.com\/fr\/wp-json\/wp\/v2\/tags?post=470946"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}