{"id":6386,"date":"2024-05-31T11:00:00","date_gmt":"2024-05-31T11:00:00","guid":{"rendered":"https:\/\/focalx.ai\/sem-categoria\/o-que-e-a-visao-por-computador-compreende-os-principios-basicos\/"},"modified":"2026-04-07T09:47:30","modified_gmt":"2026-04-07T09:47:30","slug":"tecnicas-de-visao-computacional-praticas","status":"publish","type":"post","link":"https:\/\/focalx.ai\/pt-pt\/inteligencia-artificial\/tecnicas-de-visao-computacional-praticas\/","title":{"rendered":"O que \u00e9 a vis\u00e3o por computador? Compreende os princ\u00edpios b\u00e1sicos"},"content":{"rendered":"<p>A Vis\u00e3o por Computador \u00e9 um campo multidisciplinar que permite \u00e0s m\u00e1quinas interpretar e compreender a informa\u00e7\u00e3o visual do mundo, espelhando as capacidades perceptivas da vis\u00e3o humana. Esta tecnologia transformadora encontrou aplica\u00e7\u00f5es n\u00e3o s\u00f3 na ind\u00fastria autom\u00f3vel, mas tamb\u00e9m em v\u00e1rios outros dom\u00ednios, desde os cuidados de sa\u00fade aos sistemas de seguran\u00e7a e ao entretenimento. Neste artigo, vamos aprofundar os meandros t\u00e9cnicos da vis\u00e3o por computador, explorando os seus princ\u00edpios fundamentais e centrando-nos nas suas aplica\u00e7\u00f5es com solu\u00e7\u00f5es vi\u00e1veis na dete\u00e7\u00e3o de danos em autom\u00f3veis. O processo pode ser dividido em v\u00e1rias etapas fundamentais:<\/p>\r\n<p><strong>1. Aquisi\u00e7\u00e3o de imagens: <\/strong>Captura dados visuais atrav\u00e9s de v\u00e1rios sensores, como c\u00e2maras.<br \/><strong>2. Pr\u00e9-processamento:<\/strong> Limpa e melhora as imagens adquiridas para uma melhor an\u00e1lise.<br \/><strong>3. Extra\u00e7\u00e3o de carater\u00edsticas:<\/strong> Identifica padr\u00f5es ou carater\u00edsticas relevantes nas imagens.<br \/><strong>4. Tomada de decis\u00f5es:<\/strong> D\u00e1 sentido \u00e0s carater\u00edsticas extra\u00eddas para tirar conclus\u00f5es ou tomar medidas.<\/p>\r\n<p><!-- \/wp:post-content --><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:image {\"id\":1346,\"width\":\"840px\",\"height\":\"auto\",\"sizeSlug\":\"full\",\"linkDestination\":\"none\"} \/--><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:heading --><\/p>\r\n<h2 id=\"aioseo-how-does-computer-vision-work\" class=\"wp-block-heading\">Como funciona a vis\u00e3o computacional?<\/h2>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>A vis\u00e3o computacional baseia-se em extensos conjuntos de dados para treinar m\u00e1quinas na distin\u00e7\u00e3o de padr\u00f5es e no reconhecimento de imagens. Atrav\u00e9s da fus\u00e3o da aprendizagem profunda e das Redes Neuronais Convolucionais (CNN), o processo envolve a exposi\u00e7\u00e3o de sistemas a grandes conjuntos de dados, permitindo-lhes identificar autonomamente carater\u00edsticas e aperfei\u00e7oar a sua compreens\u00e3o.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>No dom\u00ednio da aprendizagem autom\u00e1tica, os algoritmos permitem que os computadores compreendam o contexto dos dados visuais sem programa\u00e7\u00e3o expl\u00edcita. As CNNs trat\u00e1veis s\u00e3o fundamentais para dividir as imagens em pix\u00e9is, atribuir etiquetas e utilizar convolu\u00e7\u00f5es para previs\u00f5es. A CNN aperfei\u00e7oa as suas previs\u00f5es iterativamente, tal como o reconhecimento humano que evolui de formas b\u00e1sicas para detalhes complexos.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>Enquanto as CNN se destacam na compreens\u00e3o de imagens individuais, as Redes Neuronais Recorrentes (RNN) alargam esta capacidade a aplica\u00e7\u00f5es de v\u00eddeo, ajudando os computadores a compreender as rela\u00e7\u00f5es temporais entre fotogramas. A colabora\u00e7\u00e3o entre o aprendizado de m\u00e1quina e as CNNs permite que as m\u00e1quinas aprendam e reconhe\u00e7am imagens, espelhando os processos diferenciados da perce\u00e7\u00e3o visual humana. Com o avan\u00e7o da tecnologia, o panorama da vis\u00e3o computacional est\u00e1 pronto para se expandir, dando in\u00edcio a uma fase de compreens\u00e3o visual inteligente por parte das m\u00e1quinas.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:heading --><\/p>\r\n<h2 id=\"aioseo-computer-visions-key-models\" class=\"wp-block-heading\">Modelos-chave da vis\u00e3o computacional<\/h2>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:heading {\"level\":3} --><\/p>\r\n<h3 id=\"aioseo-image-classification\" class=\"wp-block-heading\">Classifica\u00e7\u00e3o de imagens<\/h3>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:paragraph {\"align\":\"center\"} --><\/p>\r\n<p class=\"has-text-align-center\">Figura 1: A imagem acima mostra que a classifica\u00e7\u00e3o de imagens consegue detetar e classificar o autom\u00f3vel.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>A classifica\u00e7\u00e3o de imagens \u00e9 uma das tarefas fundamentais da vis\u00e3o por computador, baseando-se no reconhecimento de padr\u00f5es. Envolve a atribui\u00e7\u00e3o de etiquetas ou categorias predefinidas a uma imagem de entrada. As CNNs surgiram como a arquitetura de elei\u00e7\u00e3o para tarefas de classifica\u00e7\u00e3o de imagens, utilizando o reconhecimento de padr\u00f5es atrav\u00e9s de camadas convolucionais para aprender automaticamente carater\u00edsticas hier\u00e1rquicas das imagens. Isto permite-lhes discernir padr\u00f5es e texturas complexos nos dados. Modelos populares de classifica\u00e7\u00e3o de imagens como o AlexNet, o VGG e o ResNet alcan\u00e7aram uma precis\u00e3o not\u00e1vel em conjuntos de dados padr\u00e3o como o ImageNet, demonstrando a efic\u00e1cia da aprendizagem profunda e do reconhecimento de padr\u00f5es neste dom\u00ednio.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:heading {\"level\":3} --><\/p>\r\n<h3 id=\"aioseo-object-detection\" class=\"wp-block-heading\">Dete\u00e7\u00e3o de objectos<\/h3>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:image {\"id\":1815,\"width\":\"666px\",\"height\":\"auto\",\"sizeSlug\":\"large\",\"linkDestination\":\"none\"} \/--><\/p>\r\n<p><!-- wp:paragraph {\"align\":\"center\"} --><\/p>\r\n<p class=\"has-text-align-center\">Figura 2: A imagem acima exemplifica a dete\u00e7\u00e3o de objectos, demonstrando a sua capacidade de identificar e etiquetar dois carros separados.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>A dete\u00e7\u00e3o de objectos, uma t\u00e9cnica de reconhecimento de padr\u00f5es fundamental na vis\u00e3o computacional, envolve a identifica\u00e7\u00e3o e localiza\u00e7\u00e3o de inst\u00e2ncias de objectos em imagens ou v\u00eddeos. Desempenha um papel especialmente crucial nos ve\u00edculos aut\u00f3nomos, mas tamb\u00e9m nos sistemas de vigil\u00e2ncia e na realidade aumentada. A dete\u00e7\u00e3o de objectos utiliza algoritmos de aprendizagem autom\u00e1tica ou de aprendizagem profunda, tirando partido do reconhecimento de padr\u00f5es para imitar a intelig\u00eancia humana no reconhecimento e localiza\u00e7\u00e3o de objectos.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>Existem muitas t\u00e9cnicas diferentes de dete\u00e7\u00e3o de objectos, mas as 3 mais not\u00e1veis s\u00e3o as seguintes:<\/p>\r\n<p>- As t\u00e9cnicas baseadas na aprendizagem profunda, como a R-CNN e a YOLO v2, utilizam a CNN para aprender e detetar automaticamente objectos em imagens. Duas abordagens principais para a dete\u00e7\u00e3o de objectos envolvem a cria\u00e7\u00e3o e o treino de um detetor de objectos personalizado a partir do zero ou a utiliza\u00e7\u00e3o de um modelo pr\u00e9-treinado com aprendizagem por transfer\u00eancia. As redes de duas fases, como a R-CNN, identificam propostas de regi\u00f5es antes de classificar objectos, obtendo uma elevada precis\u00e3o mas velocidades mais lentas. As propostas de regi\u00f5es servem como caixas delimitadoras candidatas que a rede examina em busca de objectos potenciais durante a fase de classifica\u00e7\u00e3o subsequente. As redes de fase \u00fanica, como a YOLO v2, prev\u00eaem regi\u00f5es em toda a imagem, oferecendo resultados mais r\u00e1pidos, mas com uma precis\u00e3o potencialmente inferior para objectos pequenos.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>- As t\u00e9cnicas de aprendizagem autom\u00e1tica, como a classifica\u00e7\u00e3o ACF e SVM utilizando carater\u00edsticas HOG, fornecem abordagens alternativas para a dete\u00e7\u00e3o de objectos, incorporando o reconhecimento de padr\u00f5es. A escolha entre aprendizagem profunda e aprendizagem autom\u00e1tica depende de factores como a disponibilidade de dados de forma\u00e7\u00e3o rotulados e recursos de GPU. O MATLAB oferece ferramentas para criar e personalizar modelos de dete\u00e7\u00e3o de objectos, facilitando tarefas como a rotulagem de imagens, a cria\u00e7\u00e3o de algoritmos e a gera\u00e7\u00e3o de c\u00f3digo para implementa\u00e7\u00e3o em v\u00e1rias plataformas, incluindo GPUs como a NVIDIA Jetson.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>- A t\u00e9cnica de segmenta\u00e7\u00e3o de imagens \u00e9 outra t\u00e9cnica utilizada na dete\u00e7\u00e3o de objectos, oferecendo uma abordagem alternativa para identificar e delinear objectos em imagens ou v\u00eddeos. Este m\u00e9todo envolve a divis\u00e3o de uma imagem em segmentos com base em propriedades espec\u00edficas, como cor, forma ou textura. A segmenta\u00e7\u00e3o de imagens, juntamente com a an\u00e1lise de bolhas e a dete\u00e7\u00e3o baseada em carater\u00edsticas, fornece caminhos adicionais para a dete\u00e7\u00e3o de objectos, dependendo dos requisitos da aplica\u00e7\u00e3o.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:heading {\"level\":3} --><\/p>\r\n<h3 id=\"aioseo-object-tracking\" class=\"wp-block-heading\">Seguimento de objectos<\/h3>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:image {\"id\":1540,\"width\":\"844px\",\"height\":\"auto\",\"sizeSlug\":\"full\",\"linkDestination\":\"none\"} \/--><\/p>\r\n<p><!-- wp:paragraph {\"align\":\"center\"} --><\/p>\r\n<p class=\"has-text-align-center\">Figura 3: A imagem acima mostra dois carros em movimento e como a dete\u00e7\u00e3o de objectos os pode identificar e seguir separadamente.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>O seguimento de objectos envolve a monitoriza\u00e7\u00e3o cont\u00ednua das posi\u00e7\u00f5es e movimentos dos objectos em quadros sucessivos de uma sequ\u00eancia de v\u00eddeo. \u00c9 crucial para aplica\u00e7\u00f5es como a vigil\u00e2ncia por v\u00eddeo, a intera\u00e7\u00e3o homem-computador e a rob\u00f3tica. Os algoritmos de rastreamento devem lidar com desafios como oclus\u00f5es, mudan\u00e7as de escala e varia\u00e7\u00f5es nas condi\u00e7\u00f5es de ilumina\u00e7\u00e3o. Os algoritmos de rastreio de objectos m\u00faltiplos (MOT), como o filtro de Kalman e o filtro de part\u00edculas, s\u00e3o normalmente utilizados para prever e atualizar as posi\u00e7\u00f5es dos objectos ao longo do tempo.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:heading {\"level\":3} --><\/p>\r\n<h3 id=\"aioseo-content-based-image-retrieval\" class=\"wp-block-heading\">Recupera\u00e7\u00e3o de imagens com base no conte\u00fado<\/h3>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>A Recupera\u00e7\u00e3o de Imagens com Base no Conte\u00fado (CBIR) permite a recupera\u00e7\u00e3o de imagens de uma base de dados com base no seu conte\u00fado visual. Para tal, compara as carater\u00edsticas de uma imagem de consulta com as das imagens da base de dados para encontrar as mais semelhantes. As t\u00e9cnicas de extra\u00e7\u00e3o de carater\u00edsticas, como os histogramas de cor, os descritores de textura e as carater\u00edsticas profundas, desempenham um papel crucial nos sistemas CBIR. A CBIR encontra aplica\u00e7\u00f5es em motores de pesquisa de imagens, an\u00e1lise de imagens m\u00e9dicas e gest\u00e3o de activos digitais. Um exemplo comum \u00e9 um motor de pesquisa de imagens como o Google Images.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:heading {\"level\":3} --><\/p>\r\n<h3 id=\"aioseo-applications-of-computer-vision\" class=\"wp-block-heading\">Aplica\u00e7\u00f5es da vis\u00e3o computacional<\/h3>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p><strong>1. Ind\u00fastria autom\u00f3vel<\/strong><br \/>Na ind\u00fastria autom\u00f3vel, a vis\u00e3o computacional \u00e9 fundamental para o desenvolvimento da condu\u00e7\u00e3o aut\u00f3noma e para o aumento da seguran\u00e7a dos ve\u00edculos. Integrada nos Sistemas Avan\u00e7ados de Assist\u00eancia ao Condutor (ADAS), a vis\u00e3o computacional ajuda na dete\u00e7\u00e3o de obst\u00e1culos, na manuten\u00e7\u00e3o da faixa de rodagem e na preven\u00e7\u00e3o de colis\u00f5es. Outra utiliza\u00e7\u00e3o significativa \u00e9 para inspec\u00e7\u00f5es eficientes de ve\u00edculos, identificando e categorizando danos para reduzir custos. Na focalx, utilizamos modelos avan\u00e7ados de vis\u00e3o computorizada para avalia\u00e7\u00f5es precisas e r\u00e1pidas do estado do ve\u00edculo. Para saber mais sobre este assunto, consulta o nosso artigo, <a title=\"Dete\u00e7\u00e3o de danos em autom\u00f3veis\" href=\"https:\/\/focalx.ai\/pt-pt\/inteligencia-artificial\/aplicacoes-car-damage-detection\/\" target=\"_blank\" rel=\"noopener\">Dete\u00e7\u00e3o de danos em autom\u00f3veis<\/a>. Al\u00e9m disso, a vis\u00e3o computacional permite que os sistemas de monitoramento do motorista detectem sinais de fadiga ou distra\u00e7\u00e3o, aumentando assim a seguran\u00e7a do motorista e do ve\u00edculo.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p><strong>2. Ind\u00fastria dos cuidados de sa\u00fade<\/strong><br \/>A vis\u00e3o por computador revolucionou a ind\u00fastria dos cuidados de sa\u00fade, melhorando a imagiologia m\u00e9dica e a dete\u00e7\u00e3o de doen\u00e7as. As Redes Neuronais Convolucionais (CNN) permitem a identifica\u00e7\u00e3o de alta precis\u00e3o de anomalias em radiografias, resson\u00e2ncias magn\u00e9ticas e tomografias computorizadas, ajudando significativamente no diagn\u00f3stico de doen\u00e7as. Durante a pandemia da COVID-19, a vis\u00e3o por computador foi crucial no rastreio de doentes e na monitoriza\u00e7\u00e3o da progress\u00e3o da doen\u00e7a atrav\u00e9s de padr\u00f5es de respira\u00e7\u00e3o. Um exemplo not\u00e1vel \u00e9 o sistema de IA da Google Health para mamografia, que reduziu substancialmente os falsos positivos e negativos nos rastreios do cancro da mama, melhorando assim a precis\u00e3o do diagn\u00f3stico.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p><strong>3. Casos de utiliza\u00e7\u00e3o geral<\/strong><br \/>As aplica\u00e7\u00f5es de vis\u00e3o computacional estendem-se a tarefas quotidianas como o reconhecimento facial, o reconhecimento \u00f3tico de caracteres (OCR), a realidade aumentada (AR) e a realidade virtual (VR). Os sistemas de reconhecimento facial, alimentados por CNNs, s\u00e3o utilizados na seguran\u00e7a, na aplica\u00e7\u00e3o da lei e no desbloqueio de dispositivos pessoais. A tecnologia OCR converte imagens digitalizadas de texto em dados digitais, facilitando a manipula\u00e7\u00e3o e a digitaliza\u00e7\u00e3o de documentos. No entretenimento e nos jogos, a vis\u00e3o por computador melhora as experi\u00eancias de RA e RV, detectando objectos do mundo real e sobrepondo elementos virtuais, criando ambientes interactivos e imersivos.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph \/--><\/p>\r\n<p><!-- wp:heading --><\/p>\r\n<h2 id=\"aioseo-conclusion\" class=\"wp-block-heading\">Conclus\u00e3o<\/h2>\r\n<p><!-- \/wp:heading --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>Os modelos de dete\u00e7\u00e3o de objectos est\u00e3o em constante aperfei\u00e7oamento, com novas arquitecturas e t\u00e9cnicas que aumentam a precis\u00e3o e a efici\u00eancia. Desafios como a dete\u00e7\u00e3o de objectos em cenas complexas ou em condi\u00e7\u00f5es de pouca luz impulsionam a investiga\u00e7\u00e3o em curso. A combina\u00e7\u00e3o da dete\u00e7\u00e3o de objectos com outras tarefas de vis\u00e3o por computador, como o seguimento e a segmenta\u00e7\u00e3o, aumenta as suas aplica\u00e7\u00f5es pr\u00e1ticas, tornando-a uma solu\u00e7\u00e3o vers\u00e1til para v\u00e1rios cen\u00e1rios.<\/p>\r\n<p><!-- \/wp:paragraph --><\/p>\r\n<p><!-- wp:paragraph --><\/p>\r\n<p>A vis\u00e3o por computador transformou a forma como as m\u00e1quinas percepcionam e interpretam a informa\u00e7\u00e3o visual. Tarefas como a classifica\u00e7\u00e3o de imagens, a dete\u00e7\u00e3o de objectos, o seguimento de objectos e a recupera\u00e7\u00e3o de imagens com base no conte\u00fado melhoram as capacidades destes sistemas. Entre estas, a dete\u00e7\u00e3o de objectos \u00e9 particularmente crucial para aplica\u00e7\u00f5es no mundo real, incluindo ve\u00edculos aut\u00f3nomos e sistemas de vigil\u00e2ncia inteligentes. \u00c0 medida que a tecnologia da vis\u00e3o computacional progride, a integra\u00e7\u00e3o destas tarefas promete criar m\u00e1quinas mais inteligentes e mais perceptivas, conduzindo a uma nova era de intera\u00e7\u00e3o homem-m\u00e1quina.<\/p>","protected":false},"excerpt":{"rendered":"<p>Descobre os princ\u00edpios fundamentais e as aplica\u00e7\u00f5es da vis\u00e3o computacional, incluindo a classifica\u00e7\u00e3o de imagens, a dete\u00e7\u00e3o de objectos e o seguimento.<\/p>\n","protected":false},"author":6,"featured_media":6398,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_seopress_robots_primary_cat":"none","_seopress_titles_title":"O que \u00e9 a vis\u00e3o por computador? Compreende os princ\u00edpios b\u00e1sicos","_seopress_titles_desc":"Descobre os princ\u00edpios fundamentais e as aplica\u00e7\u00f5es da vis\u00e3o computacional, incluindo a classifica\u00e7\u00e3o de imagens, a dete\u00e7\u00e3o de objectos e o seguimento.","_seopress_robots_index":"","content-type":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"default","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[122],"tags":[],"class_list":["post-6386","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial"],"acf":[],"_links":{"self":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts\/6386","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/comments?post=6386"}],"version-history":[{"count":0,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/posts\/6386\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/media\/6398"}],"wp:attachment":[{"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/media?parent=6386"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/categories?post=6386"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/focalx.ai\/pt-pt\/wp-json\/wp\/v2\/tags?post=6386"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}