{"id":6920,"date":"2025-02-27T14:47:26","date_gmt":"2025-02-27T14:47:26","guid":{"rendered":"https:\/\/focalx.ai\/sem-categoria\/aprendizagem-auto-supervisionada-o-futuro-da-formacao-em-ia\/"},"modified":"2026-03-24T10:59:33","modified_gmt":"2026-03-24T10:59:33","slug":"ia-aprendizagem-auto-supervisionada","status":"publish","type":"post","link":"https:\/\/focalx.ai\/pt-pt\/inteligencia-artificial\/ia-aprendizagem-auto-supervisionada\/","title":{"rendered":"Aprendizagem auto-supervisionada: O futuro da forma\u00e7\u00e3o em IA"},"content":{"rendered":"<p><span style=\"font-weight: 400;\">\u00c0 medida que a Intelig\u00eancia Artificial (IA) continua a evoluir, a necessidade de m\u00e9todos de forma\u00e7\u00e3o eficientes e escal\u00e1veis tornou-se cada vez mais importante. A aprendizagem auto-supervisionada (SSL) est\u00e1 a emergir como um paradigma poderoso que aborda as limita\u00e7\u00f5es da aprendizagem supervisionada, tirando partido de dados n\u00e3o rotulados para treinar modelos. Ao aprender a partir dos pr\u00f3prios dados sem r\u00f3tulos expl\u00edcitos, a SSL reduz a depend\u00eancia de conjuntos de dados rotulados dispendiosos e demorados. Este artigo explora como funciona a aprendizagem auto-supervisionada, as suas principais t\u00e9cnicas, aplica\u00e7\u00f5es e porque \u00e9 considerada o futuro da forma\u00e7\u00e3o em IA.   <\/span><\/p>\n<h2><b>TL;DR<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">A aprendizagem auto-supervisionada (SSL) \u00e9 um m\u00e9todo transformador de forma\u00e7\u00e3o em IA que utiliza dados n\u00e3o etiquetados para aprender representa\u00e7\u00f5es significativas, reduzindo a necessidade de conjuntos de dados etiquetados. As principais t\u00e9cnicas incluem a aprendizagem contrastiva, tarefas pr\u00e9-textuais e modelos generativos. A SSL est\u00e1 a revolucionar \u00e1reas como a vis\u00e3o computacional, o processamento de linguagem natural e os cuidados de sa\u00fade. Desafios como a escalabilidade e a avalia\u00e7\u00e3o est\u00e3o a ser resolvidos atrav\u00e9s de avan\u00e7os na investiga\u00e7\u00e3o sobre SSL. O futuro da SSL reside nos modelos h\u00edbridos, na adapta\u00e7\u00e3o ao dom\u00ednio e no desenvolvimento \u00e9tico da IA.    <\/span><\/p>\n<h2><b>O que \u00e9 a aprendizagem auto-supervisionada?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">A aprendizagem auto-supervisionada \u00e9 um paradigma de aprendizagem autom\u00e1tica em que os modelos aprendem a prever partes dos dados de entrada a partir de outras partes dos mesmos dados. Em vez de depender de r\u00f3tulos externos, o SSL cria os seus pr\u00f3prios sinais de supervis\u00e3o a partir da estrutura inerente dos dados. Esta abordagem preenche a lacuna entre a aprendizagem supervisionada (que requer dados rotulados) e a aprendizagem n\u00e3o supervisionada (que encontra padr\u00f5es sem r\u00f3tulos).  <\/span><\/p>\n<h3><b>Porque \u00e9 que a aprendizagem auto-supervisionada \u00e9 importante<\/b><\/h3>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Redu\u00e7\u00e3o da depend\u00eancia de dados rotulados<\/b><span style=\"font-weight: 400;\">: O SSL minimiza a necessidade de rotulagem de dados dispendiosa e demorada.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Escalabilidade<\/b><span style=\"font-weight: 400;\">: Aproveita grandes quantidades de dados n\u00e3o etiquetados, que s\u00e3o frequentemente mais abundantes do que os dados etiquetados.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Generaliza\u00e7\u00e3o melhorada<\/b><span style=\"font-weight: 400;\">: Aprende representa\u00e7\u00f5es robustas que podem ser ajustadas para tarefas espec\u00edficas.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Versatilidade<\/b><span style=\"font-weight: 400;\">: Aplica-se a v\u00e1rios dom\u00ednios, desde a vis\u00e3o computacional ao processamento de linguagem natural.<\/span><\/li>\n<\/ol>\n<h2><b>Como funciona a aprendizagem auto-supervisionada<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">A aprendizagem auto-supervisionada envolve duas fases principais:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Tarefa de pretexto<\/b><span style=\"font-weight: 400;\">: O modelo \u00e9 treinado numa tarefa em que o sinal de supervis\u00e3o \u00e9 derivado dos pr\u00f3prios dados. Por exemplo: <\/span>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">Prev\u00ea as partes em falta de uma imagem (inpainting).<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">Prev\u00ea a palavra seguinte numa frase (modela\u00e7\u00e3o da linguagem).<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">Roda uma imagem e prev\u00ea a sua orienta\u00e7\u00e3o.<\/span><\/li>\n<\/ul>\n<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Tarefa a jusante<\/b><span style=\"font-weight: 400;\">: As representa\u00e7\u00f5es aprendidas s\u00e3o afinadas numa tarefa espec\u00edfica utilizando uma pequena quantidade de dados rotulados. Por exemplo: <\/span>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">Classifica\u00e7\u00e3o de imagens.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">Dete\u00e7\u00e3o de objectos.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"2\"><span style=\"font-weight: 400;\">An\u00e1lise de sentimentos.<\/span><\/li>\n<\/ul>\n<\/li>\n<\/ol>\n<h2><b>T\u00e9cnicas chave na aprendizagem auto-supervisionada<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">S\u00e3o utilizadas v\u00e1rias t\u00e9cnicas na aprendizagem auto-supervisionada para criar representa\u00e7\u00f5es significativas a partir de dados n\u00e3o rotulados:<\/span><\/p>\n<h3><b>1. Aprendizagem contrastiva<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">A aprendizagem contrastiva treina modelos para distinguir entre pontos de dados semelhantes e diferentes. As t\u00e9cnicas incluem: <\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>SimCLR<\/b><span style=\"font-weight: 400;\">: Uma estrutura para a aprendizagem contrastiva de representa\u00e7\u00f5es visuais.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>MoCo (Momentum Contrast)<\/b><span style=\"font-weight: 400;\">: Utiliza um dicion\u00e1rio din\u00e2mico para permitir uma aprendizagem contrastiva em grande escala.<\/span><\/li>\n<\/ul>\n<h3><b>2. Tarefas de pretexto<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">As tarefas de pretexto s\u00e3o concebidas para gerar sinais de supervis\u00e3o a partir dos dados. Os exemplos incluem: <\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Quebra-cabe\u00e7as<\/b><span style=\"font-weight: 400;\">: Reorganiza as imagens baralhadas.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Coloriza\u00e7\u00e3o<\/b><span style=\"font-weight: 400;\">: Prev\u00ea cores em imagens em tons de cinzento.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Modela\u00e7\u00e3o de linguagem mascarada<\/b><span style=\"font-weight: 400;\">: Previs\u00e3o de palavras mascaradas numa frase (utilizada no BERT).<\/span><\/li>\n<\/ul>\n<h3><b>3. Modelos generativos<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Os modelos generativos, como os Autoencoders Variacionais (VAEs) e as Redes Adversariais Generativas (GANs), aprendem a gerar dados, criando representa\u00e7\u00f5es \u00fateis no processo.<\/span><\/p>\n<h3><b>4. M\u00e9todos baseados em clustering<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Agrupa dados n\u00e3o rotulados e utiliza atribui\u00e7\u00f5es de agrupamentos como pseudo-r\u00f3tulos para treino.<\/span><\/p>\n<h2><b>Aplica\u00e7\u00f5es da aprendizagem auto-supervisionada<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">A aprendizagem auto-supervisionada est\u00e1 a transformar v\u00e1rios dom\u00ednios, permitindo uma forma\u00e7\u00e3o eficiente e escal\u00e1vel. As principais aplica\u00e7\u00f5es incluem: <\/span><\/p>\n<h3><b>Vis\u00e3o computacional<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Classifica\u00e7\u00e3o de imagens<\/b><span style=\"font-weight: 400;\">: Aprende representa\u00e7\u00f5es a partir de imagens n\u00e3o rotuladas para tarefas como o reconhecimento de objectos.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Dete\u00e7\u00e3o de objectos<\/b><span style=\"font-weight: 400;\">: Afina\u00e7\u00e3o de modelos pr\u00e9-treinados para a dete\u00e7\u00e3o de objectos em imagens.<\/span><\/li>\n<\/ul>\n<h3><b>Processamento de linguagem natural (PNL)<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Modela\u00e7\u00e3o da l\u00edngua<\/b><span style=\"font-weight: 400;\">: Pr\u00e9-treino de modelos como o BERT e o GPT em grandes corpora de texto.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>An\u00e1lise do sentimento<\/b><span style=\"font-weight: 400;\">: Afina\u00e7\u00e3o de modelos pr\u00e9-treinados para tarefas de classifica\u00e7\u00e3o de texto.<\/span><\/li>\n<\/ul>\n<h3><b>Cuidados de sa\u00fade<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Imagiologia m\u00e9dica<\/b><span style=\"font-weight: 400;\">: Aprende representa\u00e7\u00f5es a partir de imagens m\u00e9dicas n\u00e3o rotuladas para tarefas como o diagn\u00f3stico de doen\u00e7as.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Descoberta de medicamentos<\/b><span style=\"font-weight: 400;\">: Prev\u00ea propriedades moleculares utilizando representa\u00e7\u00f5es auto-supervisionadas.<\/span><\/li>\n<\/ul>\n<h3><b>Reconhecimento de fala<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Aprendizagem da representa\u00e7\u00e3o \u00e1udio<\/b><span style=\"font-weight: 400;\">: Pr\u00e9-treino de modelos em dados de \u00e1udio n\u00e3o rotulados para tarefas como a convers\u00e3o de voz para texto.<\/span><\/li>\n<\/ul>\n<h3><b>Rob\u00f3tica<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Aprendizagem por refor\u00e7o<\/b><span style=\"font-weight: 400;\">: Utiliza a aprendizagem auto-supervisionada para melhorar o controlo e a perce\u00e7\u00e3o rob\u00f3tica.<\/span><\/li>\n<\/ul>\n<h2><b>Desafios da aprendizagem auto-supervisionada<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Apesar do seu potencial, a aprendizagem auto-supervisionada enfrenta v\u00e1rios desafios:<\/span><\/p>\n<h3><b>1. Escalabilidade<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">O treino em conjuntos de dados de grande escala requer recursos computacionais significativos.<\/span><\/p>\n<h3><b>2. Avalia\u00e7\u00e3o<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Avaliar a qualidade das representa\u00e7\u00f5es aprendidas pode ser dif\u00edcil sem dados rotulados.<\/span><\/p>\n<h3><b>3. Adapta\u00e7\u00e3o do dom\u00ednio<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Assegurar que as representa\u00e7\u00f5es aprendidas num dom\u00ednio se generalizam bem para outros.<\/span><\/p>\n<h3><b>4. Complexidade<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Conceber tarefas de pr\u00e9-texto e quadros de aprendizagem contrastiva eficazes pode ser um desafio.<\/span><\/p>\n<h2><b>O futuro da aprendizagem auto-supervisionada<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Os avan\u00e7os na aprendizagem auto-supervisionada est\u00e3o a impulsionar a sua ado\u00e7\u00e3o e a moldar o seu futuro. As principais tend\u00eancias incluem: <\/span><\/p>\n<h3><b>1. Modelos h\u00edbridos<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Combinar a aprendizagem auto-supervisionada com a aprendizagem supervisionada ou por refor\u00e7o para obter um melhor desempenho.<\/span><\/p>\n<h3><b>2. SSL espec\u00edfico do dom\u00ednio<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Desenvolver t\u00e9cnicas de SSL adaptadas a sectores espec\u00edficos, como os cuidados de sa\u00fade ou as finan\u00e7as.<\/span><\/p>\n<h3><b>3. Desenvolvimento \u00e9tico da IA<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Assegurar que os modelos SSL s\u00e3o justos, transparentes e isentos de preconceitos.<\/span><\/p>\n<h3><b>4. Aplica\u00e7\u00f5es no mundo real<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Expandir a utiliza\u00e7\u00e3o de SSL em cen\u00e1rios do mundo real, como ve\u00edculos aut\u00f3nomos e medicina personalizada.<\/span><\/p>\n<h3><b>5. Tarefas automatizadas de pretexto<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Criar ferramentas que concebam automaticamente tarefas de pretexto eficazes para diferentes tipos de dados.<\/span><\/p>\n<h2><b>Conclus\u00e3o<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">A aprendizagem auto-supervisionada est\u00e1 a revolucionar a forma\u00e7\u00e3o em IA, reduzindo a depend\u00eancia de dados rotulados e permitindo que os modelos aprendam a partir das vastas quantidades de dados n\u00e3o rotulados dispon\u00edveis. Com aplica\u00e7\u00f5es em vis\u00e3o computacional, processamento de linguagem natural, cuidados de sa\u00fade e muito mais, a SSL est\u00e1 pronta para se tornar uma pedra angular do desenvolvimento da IA. \u00c0 medida que a investiga\u00e7\u00e3o avan\u00e7a, a aprendizagem auto-supervisionada continuar\u00e1 a desbloquear novas possibilidades, tornando os sistemas de IA mais eficientes, escal\u00e1veis e vers\u00e1teis.  <\/span><\/p>\n<h2><b>Refer\u00eancias<\/b><\/h2>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Chen, T., Kornblith, S., Norouzi, M., &amp; Hinton, G. (2020). Uma estrutura simples para a aprendizagem contrastiva de representa\u00e7\u00f5es visuais.   <\/span><i><span style=\"font-weight: 400;\">arXiv preprint arXiv:2002.05709<\/span><\/i><span style=\"font-weight: 400;\">.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">He, K., Fan, H., Wu, Y., Xie, S., &amp; Girshick, R. (2020). Contraste de momento para aprendizagem de representa\u00e7\u00e3o visual n\u00e3o supervisionada.   <\/span><i><span style=\"font-weight: 400;\">arXiv preprint arXiv:1911.05722<\/span><\/i><span style=\"font-weight: 400;\">.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Devlin, J., Chang, M.-W., Lee, K., &amp; Toutanova, K. (2018). BERT: Pr\u00e9-treinamento de transformadores bidirecionais profundos para compreens\u00e3o da linguagem. <\/span><i><span style=\"font-weight: 400;\">arXiv preprint arXiv:1810.04805<\/span><\/i><span style=\"font-weight: 400;\">.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Google AI. (2023). Aprendizagem auto-supervisionada: T\u00e9cnicas e Aplica\u00e7\u00f5es. Obtido de   <\/span><a href=\"https:\/\/ai.google\/research\/pubs\/ssl\"><span style=\"font-weight: 400;\">https:\/\/ai.google\/research\/pubs\/ssl<\/span><\/a><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">IBM. (2023). O papel da aprendizagem auto-supervisionada na IA. Obtido de   <\/span><a href=\"https:\/\/www.ibm.com\/cloud\/learn\/self-supervised-learning\"><span style=\"font-weight: 400;\">https:\/\/www.ibm.com\/cloud\/learn\/self-supervised-learning<\/span><\/a><\/li>\n<\/ol>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00c0 medida que a Intelig\u00eancia Artificial (IA) continua a evoluir, a necessidade de m\u00e9todos de forma\u00e7\u00e3o eficientes e escal\u00e1veis tornou-se [&hellip;]<\/p>\n","protected":false},"author":12,"featured_media":6922,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_seopress_robots_primary_cat":"","_seopress_titles_title":"Aprendizagem auto-supervisionada: O futuro da forma\u00e7\u00e3o em IA","_seopress_titles_desc":"Explora a capacidade da IA para aprender sem dados rotulados.","_seopress_robots_index":"","content-type":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"default","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[122],"tags":[],"class_list":["post-6920","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial"],"acf":[],"_links":{"self":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts\/6920","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/users\/12"}],"replies":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/comments?post=6920"}],"version-history":[{"count":0,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts\/6920\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/media\/6922"}],"wp:attachment":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/media?parent=6920"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/categories?post=6920"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/tags?post=6920"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}