Microsoft disponibiliza novos serviços de Azure nas regiões brasileiras com foco em eficiência, economia e segurança

Serviços como o Oracle Database e soluções para ajudar no gerenciamento e segurança de arquivos passam a fazer parte do portfólio de produtos oferecido no país

A Microsoft fez atualizações importantes nas regiões de Azure no Brasil para apoiar seus clientes em suas jornadas de transformação digital. A integração do Oracle Database@Azure no Brasil South permitirá as empresas migrar suas cargas de trabalho facilmente para a nuvem pública com segurança e eficiência. Outra atualização está atrelada ao NetApp Files, serviços de armazenamento de alto desempenho, que recebeu melhorias significativas para ajudar gestores de TI a alcançarem maior eficiência, economizando recursos e mantendo suas operações protegidas.  

As novidades incluem configurações de gerenciamento de redes virtuais que tendem a ajudar empresas que lidam com cargas de trabalho intensas, como análise de dados e inteligência artificial (IA). No geral, o objetivo é auxiliar organizações de todos os tamanhos a levar melhores soluções para as necessidades de seus clientes ao mesmo tempo em que melhoram a eficiência das suas operações. Confira as principais atualizações que foram disponibilizadas nas regiões do Brasil neste semestre.  

Oracle Database@Azure: Clientes do Brazil South agora podem usar Oracle Exadata Database Service e Oracle Autonomous Database Service nos datacenters do Azure, removendo os obstáculos para migrar cargas de trabalho críticas para a nuvem pública e facilitando a inovação. Essa novidade oferece ainda desempenho e latência otimizada, com migração simplificada e alto desempenho com escala, segurança e disponibilidade. 

 Com o Oracle Database@Azure, os clientes poderão usar o conjunto avançado de serviços de aplicativos, ferramentas de desenvolvimento e estruturas disponíveis no Microsoft Azure para modernizar suas cargas de trabalho. Isso incluiu os recursos de insights de dados presente na plataforma de nuvem da Microsoft e os serviços de IA do Azure, que estão apoiando empresas de todos os tamanhos em seus processos de transformação digital a partir da inteligência artificial. Tudo isso com uma operação simplificada através do portal do Azure, entre outras vantagens. Saiba mais sobre esta atualização neste link

 Novas opções mais econômicas no Azure NetApp Files: A partir de agora, os clientes do Azure NetApp Files podem utilizar um armazenamento de acesso esporádico (cool access) em todos os níveis de serviço. Na prática, isso possibilita uma redução de custos ao mover os dados menos utilizados para uma camada mais econômica do Azure, deixando somente os blocos prioritários no armazenamento principal. Além disso, é possível adotar uma configuração flexível para este recurso, podendo otimizar o período de “frieza” dos dados pouco acessados com base no padrão de uso da empresa. Confira mais detalhes sobre essa atualização neste link.  

 Replicação entre zonas do Azure NetApp Files: Este novo recurso disponível nas regiões do Brasil permite replicar dados entre diferentes zonas de disponibilidade na mesma região de forma mais eficiente e econômica. Utilizando a tecnologia SnapMirror, a solução apresenta ganhos de eficiência e redução de custos ao enviar somente as mudanças necessárias, melhorando a proteção contra falhas. Assim, mesmo que haja um evento inesperado, é possível garantir que seus dados estejam seguros e acessíveis em outra zona, sem complicações adicionais. Confira mais detalhes neste link.  

 Backup protegido para o Armazenamento de Blobs do Azure: O armazenamento de Blobs é um serviço que permite armazenar grandes quantidades de dados não estruturados no Azure. Com esta atualização, é possível fazer backups em cofres: uma solução nativa e gerenciada que oferece proteção robusta contra perda de dados, mantendo cópias externas seguras e protegidas contra exclusão acidental, corrupção e ataques maliciosos. O principal diferencial dessa solução é permitir uma recuperação rápida de dados e continuidade dos negócios em conformidade com requisitos de segurança, o que é essencial para a proteção de informações críticas e a resiliência operacional das empresas. Saiba mais nesta página.  

 Conectividade ‘mesh’ e direta no Gerenciador de Redes Virtuais do Azure: Todas as regiões públicas do Azure, incluindo as do Brasil, agora podem acessar opções de conectividade direta e mesh no gerenciador do Azure Virtual Network. A novidade permite que redes virtuais se comuniquem diretamente, reduzindo a latência e a sobrecarga de gerenciamento. Isso tende a ser especialmente valiosos para projetos de Data & AI, permitindo que as cargas de trabalho falem entre si, sem a necessidade de passar por um firewall central. Além disso, é possível monitorar e filtrar o tráfego entre essas redes usando grupos de segurança de rede (NSGs, em inglês) e regras de administração de segurança. Saiba tudo neste link.

Esses recursos fazem parte de um conjunto maior de atualizações disponibilizadas pela Microsoft nas regiões de nuvem do Brasil no segundo semestre de 2024. Para ficar por dentro das novidades e da constante evolução das soluções do Azure no país, basta acessar o portal Azure updates | Microsoft Azure. Além disso, é possível acessar o Azure Blog, em inglês, para acompanhar os últimos temas globais da plataforma e o Source Brasil para saber das notícias mais recentes da Microsoft Brasil. 

Compartilhar

Gartner identifica as principais tendências que irão impactar a área de Infraestrutura e Operações em 2025

Infraestruturas com resfriamento líquido se tornarão predominantes à medida que as próximas gerações de GPUs e CPUs aumentarem o consumo de energia e a produção de calor

O Gartner, Inc. destaca as seis tendências que terão impacto significativo na área de infraestrutura e operações (I&O) em 2025.  

“Essas tendências oferecem aos líderes de infraestrutura e operações a oportunidade de identificar as necessidades de competências futuras e buscar insights para ajudar a atender os requisitos de implementação”, afirma Jeffrey Hewitt, Vice-Presidente e Analista do Gartner. “Elas proporcionarão o diferencial necessário para que as empresas obtenham os benefícios ideais de suas operações de I&O em 2025.” 

Principais tendências de infraestrutura e operações do Gartner para 2025

Fonte: Gartner (Dezembro 2024) 

Tendência 1: Revirtualização/Desvirtualização 

As recentes mudanças nas licenças de determinadas soluções de fornecedores obrigaram muitas equipes de I&O a reavaliar suas escolhas de virtualização. Algumas estão migrando mais para Nuvem Pública, outras optando pela Nuvem Distribuída ou pela Nuvem Privada. Isso envolve múltiplas opções além de simplesmente trocar hipervisores.  

“Os líderes de infraestrutura e operações devem fazer um inventário de todas as implementações de virtualização atuais e suas interdependências relacionadas”, afirma Hewitt. “Avaliem caminhos alternativos, incluindo hipervisores, hiperconvergência, Nuvem Distribuída, conteinerização, Nuvem Privada e desvirtualização. Identifiquem as competências existentes em I&O e como elas precisam evoluir para dar suporte às principais escolhas.” 

Tendência 2: Programas de Comportamento e Cultura em Segurança 

À medida que a sofisticação e diversidade dos ataques aumenta, os programas de segurança devem evoluir para abordar comportamentos e culturas para otimizar sua eficácia. Os programas de comportamento e cultura em segurança (SBCPs) são abordagens corporativas para toda a empresa que buscam minimizar incidentes de cibersegurança associados ao comportamento dos funcionários.  

Esses programas resultam em uma melhor adoção de controles de segurança pelos funcionários e na redução de comportamentos não seguros. Eles permitem que I&O apoie o uso mais eficaz dos recursos de cibersegurança pelos colaboradores. 

Tendência 3: Armazenamento cibernético (Cyberstorage)

As soluções de armazenamento cibernético utilizam um “porto de dados” composto por informações fragmentadas e distribuídas em vários locais de armazenamento. Esses dados fragmentados podem ser reconstituídos instantaneamente para uso quando necessário. O armazenamento cibernético pode ser uma solução dedicada com recursos abrangentes, uma oferta de serviço nativo de plataforma com soluções integradas ou um conjunto de produtos independentes que melhoram fornecedores de armazenamento com capacidades de proteção cibernética.  

“Para que o armazenamento cibernético seja bem-sucedido, os líderes de I&O devem identificar os riscos de ameaças de armazenamento custosas e disruptivas, combinados com o aumento de despesas regulatórias e de seguros para construir um caso de negócios para sua adoção”, diz Hewitt. 

Tendência 4: Infraestrutura com resfriamento líquido 

A infraestrutura com resfriamento líquido consiste em trocas de calor na porta traseira, imersão e resfriamento direto no chip. Isso permite que I&O suporte novas gerações de chips, densidade e requisitos de Inteligência Artificial (IA), além de oferecer oportunidades para implementar de forma flexível infraestrutura para suportar casos de uso na borda (edge).  

“O resfriamento líquido evoluiu para passar do resfriamento do ambiente geral do Data Center para uma abordagem mais próxima e integrada à infraestrutura”, afirma Hewitt. “Hoje, essa tecnologia é de nicho em termos de casos de uso, mas se tornará mais predominante à medida que as próximas gerações de GPUs e CPUs aumentarem o consumo de energia e a produção de calor.” 

Tendência 5: Aplicações Inteligentes 

A Inteligência Artificial Generativa (GenAI) revelou o potencial das aplicações para operar de forma inteligente, criando uma expectativa nesse sentido. Aplicações inteligentes se adaptam ao contexto e à intenção do usuário, reduzindo o atrito digital. Elas podem interoperar para alcançar seus próprios objetivos e os dos usuários, utilizando interfaces apropriadas com APIs (mecanismos de comunicação entre componentes de software) externas e dados conectados. 

Essas aplicações reduzem a necessidade de intervenções e interações por parte de I&O, otimizam processos e utilização, e diminuem a sobrecarga de recursos. 

Tendência 6: Infraestrutura ideal 

Infraestrutura ideal ocorre quando as equipes de I&O dão grande ênfase às melhores escolhas de infraestrutura para um caso de uso específico em uma variedade de estilos de implementação. Essa abordagem utiliza um foco baseado nos negócios para que os executivos fora da TI compreendam por que as escolhas de infraestrutura são feitas a partir de suas perspectivas. 

“Essas escolhas estão, em última análise, alinhadas com a adoção da engenharia de plataformas”, afirmou Hewitt. “Elas permitem que I&O alinhe as escolhas de infraestrutura com os objetivos de negócios da empresa como um todo. Além disso, facilitam o suporte e a aprovação de líderes de unidades de negócios e executivos C-Level.” 

Compartilhar

GFT ganha os prêmios AWS Global Innovation Partner of the Year e EMEA Industry Partner of the Year — Financial Services

10 de dezembro de 2024 – A GFT recebeu em 2024 dois prêmios Geography e Global AWS Partner Awards, que reconhecem líderes ao redor do mundo que estão desempenhando papéis importantes em ajudar seus clientes a impulsionar a inovação e criar soluções na Amazon Web Services (AWS).
 

A GFT foi nomeada vencedora do prêmio “Innovation Partner of the Year, Global”, que reconhece organizações que oferecem serviços inovadores de consultoria, profissionais, gerenciados e de revenda de valor agregado. A GFT também ganhou a categoria “Industry Partner of the Year – Financial Services, EMEA”. O último prêmio reconhece o AWS Partner na região EMEA que melhor fornece ofertas baseadas em nuvem para ajudar a acelerar a inovação para bancos, seguradoras, empresas do mercado de capitais e processadores de pagamento de todos os tamanhos, entre os principais parceiros com competência em serviços financeiros da AWS.
 

Anunciado durante o Partner Awards Gala no AWS re:Invent 2024, o Geographic and Global AWS Partner Awards reconhece uma ampla gama de parceiros da AWS que adotaram especialização, inovação e cooperação no ano passado. O Geo and Global AWS Partner Awards reconhece parceiros cujos modelos de negócios continuam a evoluir e prosperar na AWS enquanto dão suporte a seus clientes. A GFT foi reconhecida pela AWS por seu trabalho com o romeno Salt Bank, bem como com o banco brasileiro Itaú.
 

“O reconhecimento da GFT pela AWS afirma nossa expertise em remodelar indústrias por meio da inovação”, disse o co-CEO da GFT, Marco Santos. “Esses elogios também refletem nossa liderança tecnológica e nossa profunda dedicação em capacitar nossos clientes a prosperar em uma nova era de crescimento digital. E não vamos parar por aqui. A IA tornará todos os serviços de desenvolvimento de software, engenharia e consultoria muito mais rápidos e eficientes. A GFT tem como objetivo ajudar todas as empresas em todos os lugares a explorar esse potencial.”
 

Alessandro Buonopane, CEO da GFT no Brasil, acrescentou: “Este prêmio é um marco significativo para nossa empresa. Ele ressalta o poder de nossos esforços e o impacto positivo que estamos causando. Estamos muito felizes em comemorar este sucesso e esperamos muitas outras conquistas por vir.”
 

O Geography and Global AWS Partner Awards incluiu um processo de autoindicação em várias categorias de prêmios, concedidos em nível geográfico e global. Todos os parceiros da AWS foram convidados a participar e enviar uma indicação. As inscrições para o prêmio foram revisadas por um terceiro, a Canalys, e selecionadas com ênfase especial em casos de uso de sucesso do cliente.
 

Além disso, houve várias categorias de premiação orientadas por dados, que foram avaliadas por um conjunto exclusivo de métricas que ajudaram a medir o desempenho dos Parceiros da AWS no ano passado. A Canalys auditou os conjuntos de dados usados​​para garantir que todas as medições e cálculos fossem objetivos e precisos. Os finalistas representaram os três principais Parceiros da AWS classificados em cada categoria.
 

A AWS Partner Network (APN) é um programa global focado em ajudar os parceiros a inovar, acelerar sua jornada para a nuvem e aproveitar ao máximo a amplitude e a profundidade da AWS.

O co-CEO da GFT, Marco Santos, e o chefe global de soluções de inovação, Carlos Kazuo Missao, receberam o prêmio AWS Partner Awards da GFT no AWS re:Invent em Las Vegas.
Compartilhar

50% dos líderes de TI brasileiros veem qualidade dos dados como maior desafio da IA

Com a rápida adoção da IA em todos os setores, metade das empresas brasileiras (50%) identificaram a qualidade dos dados como sua principal preocupação ao implementar projetos de Inteligência Artificial. Mas são poucos os líderes de TI que estão tomando medidas para garantir a melhoria deste fator, colocando em risco o sucesso das iniciativas desta tecnologia.

Essas foram duas das principais conclusões da Hitachi Vantara State of Data Infrastructure Survey. O levantamento da Hitachi Vantara, subsidiária de armazenamento de dados, infraestrutura e gerenciamento de nuvem híbrida da Hitachi, Ltd. (TSE: 6501), reforçou o papel crítico que a infraestrutura e o gerenciamento de dados podem desempenhar em termos de qualidade geral e na capacidade de gerar resultados positivos de IA.

“Utilizar dados de alta qualidade” foi apontado como o principal motivo para o sucesso dos projetos de IA no Brasil, com 46% dos entrevistados brasileiros concordando com essa afirmação. Dessa maneira, fornecer dados de alta qualidade para treinar e operar os modelos de IA tornou-se um desafio.

A pesquisa ouviu 1,2 mil executivos C-level, além de tomadores de decisão de TI, de 15 países. As principais descobertas do Brasil incluem:

  • Segurança (48%) e precisão (46%) são as principais preocupações dos líderes de TI brasileiros. Além disso, 74% dos entrevistados alertam que uma perda significativa de dados poderia ser catastrófica para suas operações e 70% temem que a IA forneça ferramentas mais inteligentes para hackers.
  • Apesar de sua importância para o sucesso da IA, a qualidade dos dados ainda é um desafio. A maioria dos entrevistados afirma que os dados estão disponíveis apenas 14% do tempo quando realmente precisam. Além disso, 81% indicam que seus dados não são estruturados.
  • São poucos os executivos e tomadores de decisão de TI que estão tomando medidas para aprimorar essa qualidade: apenas 33% investem na melhoria dos dados de treinamento, enquanto 25% sequer avaliam a qualidade desses conjuntos de dados.
  • A sustentabilidade também é negligenciada, com apenas 29% dos entrevistados considerando-a uma prioridade na implementação da IA. O custo também não é tão relevante, sendo apontado por 35%.
  • Embora 58% das grandes organizações foquem no desenvolvimento de LLMs gerais, esses modelos consomem até 100 vezes mais energia do que os menores, evidenciando um problema em termos de eficiência.

“Ainda existem desafios importantes em relação à qualidade dos dados e à sustentabilidade na IA. E, embora a adoção da tecnologia cresça, ainda há dificuldades no acesso a dados confiáveis e na precisão dos resultados dos modelos. Além disso, as empresas ainda buscam melhorar a qualidade dos dados”, analisa Andrea Fodor, CEO da Hitachi Vantara. “Fica claro que a qualidade é uma prioridade, mas também é preciso focar em sustentabilidade e custo. A ênfase em modelos de grande escala, que consomem mais energia, e os riscos de segurança, como a perda de dados e o uso de IA por hackers, mostram a necessidade de uma abordagem mais equilibrada e responsável”, comenta.

O papel da infraestrutura de dados na condução do sucesso da IA

Apesar de reconhecer a qualidade dos dados como o principal fator para uma IA bem-sucedida (46%), muitas organizações não têm a infraestrutura para dar suporte a padrões consistentes de qualidade.

Dois terços (60%) estão testando e iterando em IA em tempo real sem ambientes controlados, deixando espaço para riscos significativos e vulnerabilidades potenciais. Apenas 8% relatam usar sandboxes para conter a experimentação de IA, o que levanta preocupações sobre o potencial de violações de segurança e saídas falhas de dados.

“O papel da infraestrutura de dados é essencial para o sucesso da inteligência artificial. Embora muitas organizações reconheçam que a qualidade dos dados é um dos principais fatores para uma IA bem-sucedida, a realidade é que a infraestrutura necessária para garantir padrões consistentes de qualidade ainda está aquém. Testar e iterar em IA sem ambientes controlados aumenta consideravelmente os riscos, e a falta de medidas adequadas, como o uso de sandboxes, pode resultar em falhas de segurança e dados imprecisos, comprometendo a eficácia e a confiabilidade dos sistemas de IA”, finaliza Andrea Fodor.

Para obter mais informações sobre como a Hitachi Vantara está ajudando os clientes a fornecer uma abordagem orientada por dados para a infraestrutura de dados moderna, clique aqui.

Compartilhar

Copom eleva a taxa Selic para 12,25% a.a.

O ambiente externo permanece desafiador, em função, principalmente, da conjuntura econômica nos Estados Unidos, o que suscita maiores dúvidas sobre os ritmos da desaceleração, da desinflação e, consequentemente, sobre a postura do Fed. Os bancos centrais das principais economias permanecem determinados em promover a convergência das taxas de inflação para suas metas em um ambiente marcado por pressões nos mercados de trabalho. O Comitê avalia que o cenário externo segue exigindo cautela por parte de países emergentes.

Em relação ao cenário doméstico, o conjunto dos indicadores de atividade econômica e do mercado de trabalho segue apresentando dinamismo, com destaque para a divulgação do PIB do terceiro trimestre, que indicou abertura adicional do hiato. A inflação cheia e as medidas subjacentes têm se situado acima da meta para a inflação e apresentaram elevação nas divulgações mais recentes.

As expectativas de inflação para 2024 e 2025 apuradas pela pesquisa Focus elevaram-se de forma relevante e encontram-se em torno de 4,8% e 4,6%, respectivamente. A projeção de inflação do Copom para o segundo trimestre de 2026, atual horizonte relevante de política monetária, situa-se em 4,0% no cenário de referência (Tabela 1).

Em função da materialização de riscos, o Comitê avalia que o cenário se mostra menos incerto e mais adverso do que na reunião anterior. Persiste, no entanto, uma assimetria altista no balanço de riscos para os cenários prospectivos para a inflação. Entre os riscos de alta para o cenário inflacionário e as expectativas de inflação, destacam-se (i) uma desancoragem das expectativas de inflação por período mais prolongado; (ii) uma maior resiliência na inflação de serviços do que a projetada em função de um hiato do produto mais positivo; e (iii) uma conjunção de políticas econômicas externa e interna que tenham impacto inflacionário, por exemplo, por meio de uma taxa de câmbio persistentemente mais depreciada. Entre os riscos de baixa, ressaltam-se (i) uma desaceleração da atividade econômica global mais acentuada do que a projetada; e (ii) os impactos do aperto monetário sobre a desinflação global se mostrarem mais fortes do que o esperado.

O Comitê tem acompanhado com atenção como os desenvolvimentos recentes da política fiscal impactam a política monetária e os ativos financeiros. A percepção dos agentes econômicos sobre o recente anúncio fiscal afetou, de forma relevante, os preços de ativos e as expectativas dos agentes, especialmente o prêmio de risco, as expectativas de inflação e a taxa de câmbio. Avaliou-se que tais impactos contribuem para uma dinâmica inflacionária mais adversa.

O cenário mais recente é marcado por desancoragem adicional das expectativas de inflação, elevação das projeções de inflação, dinamismo acima do esperado na atividade e maior abertura do hiato do produto, o que exige uma política monetária ainda mais contracionista.

O Copom então decidiu realizar um ajuste de maior magnitude, elevando a taxa básica de juros em 1,00 ponto percentual, para 12,25% a.a., e entende que essa decisão é compatível com a estratégia de convergência da inflação para o redor da meta ao longo do horizonte relevante. Sem prejuízo de seu objetivo fundamental de assegurar a estabilidade de preços, essa decisão também implica suavização das flutuações do nível de atividade econômica e fomento do pleno emprego.

Diante de um cenário mais adverso para a convergência da inflação, o Comitê antevê, em se confirmando o cenário esperado, ajustes de mesma magnitude nas próximas duas reuniões. A magnitude total do ciclo de aperto monetário será ditada pelo firme compromisso de convergência da inflação à meta e dependerá da evolução da dinâmica da inflação, em especial dos componentes mais sensíveis à atividade econômica e à política monetária, das projeções de inflação, das expectativas de inflação, do hiato do produto e do balanço de riscos.

Votaram por essa decisão os seguintes membros do Comitê: Roberto de Oliveira Campos Neto (presidente), Ailton de Aquino Santos, Carolina de Assis Barros, Diogo Abry Guillen, Gabriel Muricca Galípolo, Otávio Ribeiro Damaso, Paulo Picchetti, Renato Dias de Brito Gomes e Rodrigo Alves Teixeira.

Tabela 1

Projeções de inflação no cenário de referência

Variação do IPCA acumulada em quatro trimestres (%)

Índice de preços202420252º tri 2026
IPCA4,94,54,0
IPCA livres5,04,53,8
IPCA administrados4,64,54,6

No cenário de referência, a trajetória para a taxa de juros é extraída da pesquisa Focus e a taxa de câmbio parte de R$5,95/US$, evoluindo segundo a paridade do poder de compra (PPC). O preço do petróleo segue aproximadamente a curva futura pelos próximos seis meses e passa a aumentar 2% ao ano posteriormente. Além disso, adota-se a hipótese de bandeira tarifária “verde” em dezembro de 2024 e de 2025. O valor para o câmbio foi obtido pelo procedimento usual. 

Fonte: Banco Central

Compartilhar

UFPR promove debate sobre inovação em ciência de dados com especialistas e profissionais do setor

Evento reúne empresas como Volvo, Will Bank, O Boticário e Mirum para debater tendências no tratamento de Big Data e o perfil do profissional do futuro em ciência de dados

Na próxima sexta-feira (13), a Universidade Federal do Paraná (UFPR) sediará o 3º Encontro de Data Science & Big Data, evento que busca discutir as tendências e desafios da área de dados, reunindo acadêmicos e profissionais do setor. Em um cenário de intensa produção de dados, as empresas e profissionais que desejam não apenas sobreviver, mas também prosperar em um mercado competitivo precisam adotar estratégias eficazes para coletar e analisar estas informações. É aqui que entram as ferramentas e métodos de ciência de dados. Para apresentar as inovações da área, o evento tem uma programação com palestras, cases de sucesso e mesa redonda para debater o futuro do Data Science.

O evento que conecta teoria e prática é promovido pelo Programa de Especialização em Data Science e Big Data da UFPR com o apoio do Departamento de Estatística da UFPR, do Laboratório de Estatística e Geoinformação (LEG) e do Centro de Computação Científica e Software Livre (C3SL). O professor Wagner Bonat, coordenador do programa, destaca que o encontro é uma oportunidade única para que alunos e profissionais compreendam como a análise de dados pode transformar desafios em oportunidades. “O encontro é voltado à comunidade acadêmica, aos profissionais que atuam na área de análise de dados, pesquisadores com foco em inovação, e empresas e startups que buscam aprimorar suas estratégias de dados. Com isso, é um espaço rico para networking e para conhecer as principais tendências em ciências de dados”, destaca Bonat.

A abertura do encontro, no Auditório de Administração, no Centro Politécnico, será com o renomado doutor Hedibert Lopes, professor de Estatística e Econometria do Insper e doutor em Estatística pela Duke University. Na palestra intitulada “Estatísticas ou Ciência de Dados?”, Lopes irá explorar como áreas como Estatística, Bioestatística, Econometria, Bioinformática e outras estão se entrelaçando com novos conceitos como Ciência de Dados, Aprendizado de Máquina e Big Data.

O encontro também terá palestra sobre uso de Inteligência Artificial para otimização de processos e desenvolvimento de sistemas com a palestra “O papel das Ferramentas de Inteligência Artificial no Desenvolvimento de Software”, a ser ministrada por Álvaro Moreira, professor do Departamento de Informática da UFRGS e doutor em Ciência da Computação pela University of Edinburgh. Durante sua apresentação, o professor deve abordar como as ferramentas modernas podem auxiliar desenvolvedores a resolver problemas complexos, melhorar a eficiência e garantir a qualidade do software.

Cases de inovações em biometria e saúde mental

Na programação, além de palestras sobre inteligência artificial e conceitos de ciência de dados e aprendizado de máquinas no cenário de Data Science, também terá apresentação de casos aplicados, com mesas coordenadas por professores da UFPR. As técnicas avançadas de IA em sistemas de segurança é o foco da apresentação do case “Explorando Representações Robustas com Deep Learning para Biometria e Vigilância”, a ser ministrado pelo professor do Departamento de Informática (Dinf), David Menotti. Um dos 200 mil pesquisadores mais citados no mundo na atual edição da “Updated science-wide author databases of standardized citation indicators”, levantamento anual realizado pela Universidade Stanford (EUA) e a editora de títulos acadêmicos, Elsevier, Menotti liderou a parceria de P&D da startup com a UFPR para estudos de desenvolvimento de um novo modelo de identificação, a biometria periocular.

Outro case de destaque será sobre “Integrando dados para diagnóstico e tratamento de transtornos mentais”, a ser apresentado pela professora do Departamento de Estatística, Deisy Morselli Gysi. Com a crescente disponibilidade de dados clínicos e comportamentais, a utilização de técnicas de ciência de dados pode fornecer insights valiosos para profissionais da saúde. A palestra abordará métodos inovadores que permitem uma compreensão mais holística dos pacientes, melhorando a personalização dos tratamentos e o acompanhamento dos progressos.

Mesa Redonda: o profissional do futuro

Uma das atividades de destaque do Encontro será a mesa redonda sobre o futuro do profissional da área, com participação de empresas como Volvo, Will Bank, O Boticário e Mirum. A crescente importância da ciência de dados no mundo contemporâneo está moldando o perfil do profissional do futuro, que deve ser multifacetado e preparado para enfrentar os desafios de um mercado em constante evolução. Em um cenário onde a análise de grandes volumes de dados se torna essencial, as habilidades requeridas vão muito além do conhecimento técnico. 

Marco Zanata, vice-coordenador do curso de especialização em Data Science e Big Data, enfatiza que os profissionais precisam ter um conjunto diversificado de habilidades interdisciplinares. “O profissional de data science precisa dominar uma variedade de habilidades interdisciplinares. Isso inclui conhecimentos em programação (como Python e R), estatística avançada, técnicas de inteligência artificial e machine learning, além de uma compreensão sólida sobre ética e privacidade no uso de dados, especialmente em conformidade com a Lei Geral de Proteção de Dados (LGPD). Além disso, é importante destacar que os melhores profissionais são aqueles que se mantêm atualizados com as últimas tendências e tecnologias. O aprendizado contínuo é vital em um campo tão dinâmico”.

Compartilhar

“Agro em código” debate posicionamento do Brasil frente à demanda global por alimentos

Roberto Matsubayashi, diretor de tecnologia da Associação Brasileira de Automação-GS1 Brasil

A Associação Brasileira de Automação-GS1 Brasil, o Cubo Agro Itaú e a Embrapa Agricultura Digital se adiantam às discussões sobre acordos internacionais para exportação e abastecimento interno da indústria brasileira de alimentos ao reunir especialistas para colocar em evidência a rastreabilidade e as certificações como oportunidades para inovação e sustentabilidade.

Diante da previsão de a humanidade totalizar 10 bilhões de habitantes até 2050, a alimentação torna-se um desafio para a cadeia evolutiva. Para que a produção seja mais adequada à demanda, evite-se o desperdício, aprimorem-se os recursos logísticos e que a segurança do alimento seja garantida, os processos de rastreabilidade e certificações foram enfatizados por todos os palestrantes que debateram o tema durante o “Agro em código – summit de rastreabilidade no agronegócio”.

Profissionais do setor e representantes de entidades e governo abordaram as exigências de consumidores e mercado internacional como certificações, inovação, políticas para a produção sustentável e as oportunidades de negócios que uma nova realidade proporciona. A necessidade de transparência por parte de produtores, governos e todos os players dessa cadeia de abastecimento também entrou em pauta nos debates.

Na abertura do encontro, Roberto Matsubayashi, diretor de tecnologia da Associação Brasileira de Automação-GS1 Brasil, enfatizou que “a rastreabilidade é uma questão complexa e não somente uma técnica para garantir a procedência dos produtos, mas é um dos fatores para o alcance dos 17 Objetivos de Desenvolvimento Sustentável propostos pela ONU, já que os dois primeiros deles são Erradicação da Pobreza e Fome Zero, além do ODS 13 que trata sobre a Ação Climática, para garantir que os produtos não venham de área de desmatamento”. “A GS1 tem como uma de suas missões nesse sentido promover discussões que levem à reflexão para inclusão de produtores rurais de todos os portes no círculo do agronegócio, a certificação de produtos e o acesso à alimentação de qualidade”, completa Matsubayashi.

Compartilhar

 Estapar e Google Pay retomam promoção de 50% de desconto no EstaR

Usuários do serviço de estacionamento rotativo, popularmente conhecido como EstaR, em Curitiba, podem ter desconto de 50% no valor da tarifa cobrada, até o dia 31/12. Válido para todos os motoristas que fizerem o pagamento do serviço via Google Pay por meio do aplicativo Zul+, o benefício é resultado de uma parceria entre a Estapar, detentora do App, e o Google, que se uniram em uma promoção de final de ano.

“Seja no débito ou no crédito, quem utilizar o serviço durante este período, através do Google Pay no app Zul+, pagará a metade do valor da tarifa”, resume Marcella Mosquini, Head de Marketing da Estapar. O objetivo, segundo ela, é estimular o uso dos meios digitais que hoje estão disponíveis aos usuários da Zona Azul, oferecendo praticidade e segurança.

“Hoje em dia, a tecnologia empregada em nossas operações permite ao motorista fazer o pagamento, a ativação e o acompanhamento do tempo de uso do estacionamento rotativo, apenas com o celular. É justamente isso que queremos reforçar através desta nova parceria com o Google, que nos coloca na vanguarda da oferta de ações disruptivas”.

Critérios

Durante o período promocional, o cliente poderá acumular até R$12,72 de benefício recebido. Caso atinja esse valor em desconto, o usuário não terá o abatimento nas próximas compras. Outra condição essencial para obter o benefício é a ativação da Zona Azul por meio do aplicativo Zul+, com o pagamento via Google Pay (presente apenas em celulares Android).

Para tanto, basta fazer o download do Zul+ e da Carteira do Google. Ambos estão disponíveis nas lojas virtuais de aplicativos presentes nos celulares com sistema Android. Feito isso, na hora de colocar créditos para uso do serviço de Zona Azul, é só escolher o Google Pay como forma de pagamento. Dessa forma, o desconto estará garantido no valor de até R$12,72 por usuário.”

Segurança e agilidade

O Google Pay consiste no armazenamento dos seus cartões dos bancos na conta do Google. Ele possui um avançado sistema de proteção integrado que não compartilha os dados da sua conta com os estabelecimentos. Todos os dados são criptografados e protegidos pelo Google, mantendo as informações dos seus cartões sempre seguras e livres de clonagem ou roubo de informações. Com apenas um toque no Google Pay, você paga diretamente no aplicativo Zul+ de forma simples e segura.

“A integração ao app Zul+ permite que os usuários de estacionamentos rotativos possam fazer o pagamento de forma mais simples, rápida e segura pelo Google Pay, gerando ainda mais conveniência para quem deseja concentrar seus pagamentos em um só lugar”, avalia Natacha Litvinov, líder de negócios do Google Pay no Brasil.

Parceria

A iniciativa é fruto de mais uma parceria entre o Google e a Estapar, que é a detentora do Zul+. Desde 2022, Estapar e Zul+ reúnem em uma única plataforma digital mais de 20 serviços automotivos, que incluem a contratação de seguro automotivo, tag de pedágio, reserva de vagas em aeroportos e arenas esportivas, pagamento de IPVA, licenciamento, além do estacionamento rotativo de 18 municípios brasileiros. Essa união elevou a Estapar, empresa líder no setor de estacionamentos, à categoria de autotech. Isto é, de empresa que desenvolve soluções por meio de tecnologias automotivas para o avanço do setor.

Compartilhar

Globant lança seu relatório de Tendências Tecnológicas 2025

De Humanos Sintéticos a Experiências Invisíveis, o relatório anual explora setores importantes que podem passar por transformações substanciais num futuro próximo e que trará uma tecnologia mais amigável e integrada ao cotidiano

Globant (NYSE: GLOB), empresa digitalmente nativa focada em reinventar negócios por meio de soluções tecnológicas inovadoras, lançou seu Relatório de Tendências Tecnológicas de 2025, destacando as principais previsões do setor que irão moldar o próximo ano.

“À medida que nos aproximamos de 2025, o ambiente tecnológico está preparado para mudanças revolucionárias que irão remodelar fundamentalmente nosso mundo,” disse Diego Tártara, Chief Technology Officer da Globant. “Embora previsões fascinantes possam, às vezes, nos distrair, o relatório de Tendências Tecnológicas da Globant traduz os empolgantes avanços que estão por vir. Ele destaca as tendências críticas que devem aprimorar nossa experiência com a tecnologia e aprofundar nossas conexões, enfatizando o poder transformador da inovação”, completa.

O relatório destaca cinco tendências que estão prestes a revolucionar indústrias e a vida cotidiana das pessoas, para que todos se prepararem para as mudanças que estão por vir:

  • Humanos Sintéticos: baseando-se na teoria da ‘Equação da Mídia’, que sugere que as pessoas tratam a tecnologia como seres sociais, os humanos sintéticos evoluíram de figuras animadas simples para avatares avançados impulsionados por IA. Essas entidades digitais agora oferecem aparências, emoções e comportamentos realistas, promovendo interações mais genuínas em setores como atendimento ao cliente, educação e saúde. Com o mercado de humanos digitais previsto para crescer, eles aprimoram as experiências dos usuários por meio de comunicação personalizada e empática. Além disso, eles prometem revolucionar o varejo atuando como compradores pessoais. Na saúde, oferecem suporte contínuo e informações.
  • Computação Quântica: esse salto tecnológico está prestes a revolucionar o mundo dos dados e da inovação digital. Com o mercado global de Computação Quântica projetado para disparar de US$412 milhões em 2020 para US$8,6 bilhões até 2027, essa tecnologia está rapidamente evoluindo além dos limites clássicos, pronta para não apenas abrir novas fronteiras em IA e criptografia, mas também para introduzir uma internet quântica com comunicação global segura e instantânea.
  • Experiências Invisíveis: A Inteligência Artificial (IA) se integra perfeitamente em nossas vidas, tornando-se uma companheira onipresente e empática, em vez de apenas uma ferramenta. Com isso, os óculos inteligentes irão liderar a revolução das experiências invisíveis, evoluindo de dispositivos eletrônicos volumosos para acessórios elegantes e de alta tecnologia, que misturam realidade aumentada com conveniência diária. À medida que as grandes empresas de tecnologia correm para aperfeiçoar essas inovações, o futuro invisível se torna um divisor de águas.
  • Agentes de IA: essa tendência tornou-se o ‘santo graal’ da indústria de tecnologia, principalmente fora da visão do público em geral. Essa tendência  está revolucionando o cenário da IA ao ir além de sistemas isolados e de agente único, se tornando uma estrutura dinâmica de múltiplos agentes que funciona como uma equipe de especialistas. A Globant, portanto, anunciou a integração de seus ‘Agentes de IA’ proprietários no ciclo de vida de desenvolvimento de software (SDLC) em junho. Esses agentes, ampliados por humanos, impactam todo o SDLC, incluindo prototipagem de backend, design de aplicativos e testes, entre outras funções, para aumentar a eficiência ao resolver tarefas de forma autônoma.
  • Robótica: essa tecnologia está à beira de uma transformação monumental, impulsionada por avanços sem precedentes em IA e investimentos. O mercado de robótica, projetado para crescer de US$262 bilhões em 2023 para US$346 bilhões até 2025, está sendo revolucionado por inovações como robôs autônomos impulsionados por IA e integração de IoT. Robôs inteligentes evoluem com mais autonomia e capacidades semelhantes às humanas, enquanto robôs domésticos acessíveis estão se tornando mais comuns. Essa era de “Internet da Robótica” e “Operações de Robótica” irá redefinir eficiência e conectividade, tornando os robôs uma parte integrante da vida diária e das operações comerciais, borrando as linhas entre imaginação e realidade.

O Relatório de Tendências Tecnológicas 2025 da Globant mostra que esses avanços não são apenas maravilhas técnicas; eles representam uma mudança em direção a um mundo em que a tecnologia é mais intuitiva, empática e integrada de forma harmoniosa à vida cotidiana. A IA, portanto, se tornará uma força invisível, mas onipresente, e os sistemas irão evoluir para emular a colaboração humana. 

Compartilhar

HOTMILK, ecossistema de inovação da PUCPR, estabelece parcerias com instituições de ensino de Portugal e Espanha

Um dos principais ecossistemas de inovação do país, HOTMILK visitou instituições e firmou importantes acordos para garantir imersão de startups e empresas brasileiras no mercado de inovação europeu

Não só os ecossistemas de inovação, mas as missões internacionais, tem revelado inúmeras oportunidades para as startups brasileiras. De acordo com dados do estudo Impacto da Internacionalização em Startups lançado recentemente pelo Observatório Sebrae Startups, 46% dos participantes do Web Summit Lisboa 2022 e 2023 abriram filiais internacionais, enquanto 72,3% conquistaram novos clientes.

Impulsionando ainda mais este movimento, a HOTMILK, um dos principais ecossistemas de inovação do país e que faz parte da PUC-PR, com 350 startups, firmou parceria com a Lisbon Digital School, para adicionar um módulo internacional online, com foco no mercado europeu e global, para o Innovation Academy, área de capacitação corporativa da HOTMILK em inovação, com para cursos sobre inovação. Ao final desse módulo, no segundo semestre de 2025, será realizada uma missão internacional para visitar a escola presencialmente, assim como empresas parceiras de Lisboa e Oeiras.

O acordo aconteceu na “Missão Europa” realizada em novembro de 2024, durante o Web Summit e, a partir de agora, as startups que residem na sede da HOTMILK terão a oportunidade de participar de eventos de inovação na Universidade La Salle – uma das maiores referências de ensino no mundo, por intermédio do ecossistema de inovação da universidade espanhola, a Technova. “Será uma porta de entrada para que as nossas startups possam desbravar o mercado europeu com o apoio de uma instituição que dispensa apresentações”, reforça o Gerente de Growth e Estratégia, Thiago Moro.

Na Universidade Católica do Porto, uma das mais prestigiadas universidades portuguesas, o ecossistema do Paraná conheceu a plataforma de inovação e sustentabilidade desenvolvida em parceria com a startup Planetiers e celebrou a concepção de uma trilha de ESG em conjunto: “A visita à Planetiers e à Católica Porto Business School foi inspiradora, pois ambas são referência em desenvolvimento sustentável. Durante nossas conversas, identificamos uma grande sinergia para criar uma trilha de capacitação em ESG que una o conhecimento acadêmico de excelência da Católica Porto, a expertise prática da Planetiers em soluções sustentáveis e a nossa visão estratégica na Hotmilk. Essa parceria tem o potencial de preparar startups e empresas brasileiras para liderar com impacto positivo no cenário global”, detalha Thiago.

“Com mais de 350 startups aceleradas e mais de 3,5 mil negócios conectados a grandes empresas, a HOTMILK PUCPR sempre busca ampliar as fronteiras de seus associados, tanto das startups, como das empresas associadas. Por isso, essa agenda foi muito positiva para abrir ainda mais portas no mercado europeu”, destaca Marcelo Moura, diretor do hub de inovação.

INOVAÇÃO PORTUGUESA

Hoje vista como a “Califórnia da Europa”, Portugal tem se consolidado não só como um local turístico, mas também como um pólo de tecnologia e inovação – e tem chamado cada vez mais atenção de negócios brasileiros que querem expandir para a Europa. Tanto que o país já tem, desde 2019, um visto especial para criar empresas tecnológicas, o Startup Visa. Durante o WebSummit, inclusive, as prefeituras do Rio de Janeiro e Lisboa também assinaram um acordo para trazer unicórnios europeus (startups que valem mais de U$ 1 bilhão) para o Brasil.

Segundo um estudo do Distrito, o Brasil já é o principal destino de investimentos na América Latina. Desde o início de 2024, as startups brasileiras captaram cerca de U$ 1,46 bilhão em capital de risco, um crescimento de quase 10% em relação ao mesmo período de 2023. Thiago acredita que isso se deve a um cenário de câmbio favorável, bem como às proximidades culturais e linguísticas. 

“Portugal e Brasil têm uma conexão histórica e cultural, o que facilita a construção de relacionamentos com parceiros locais, investidores e clientes, acelerando o processo de entrada de empresas europeias no mercado latino-americano e trazendo possibilidades para as nossas startups explorarem oportunidades em um setor maduro e diversificado”, finaliza.

Compartilhar

Da automação à autonomia: IA é chave para sustentabilidade na indústria brasileira

A incorporação de inteligência artificial em softwares, hardwares e até mesmo em serviços na indústria está criando as bases para a transição entre automação e autonomia no chão de fábrica, com dispositivos cada vez mais inteligentes usando dados para tomada de decisões autônomas. Essa é a visão de Leandro Kruger, diretor regional da Rockwell Automation no Brasil, maior empresa do mundo dedicada à automação industrial e transformação digital.

Segundo o executivo, a integração de inteligência artificial a dispositivos inteligentes irá gerar cada vez mais eficiência e sustentabilidade no setor industrial. “Ao atingir aspectos de produtividade, de otimização e de resiliência, estamos afetando diretamente aspectos de sustentabilidade que não saem do radar da indústria brasileira,” afirma.

A Rockwell Automation apresentou as principais tendências para o setor industrial durante a Automation Fair — principal vitrine global de inovação da indústria. A 33ª edição do evento foi realizada entre 17 e 21 de novembro na cidade de Anaheim, na Califórnia, e reuniu mais de 10 mil representantes da manufatura global.

Entre as soluções apresentadas está a nova geração de controladores da Rockwell Automation, projetada para aplicações que exigem grande capacidade de processamento e controle preciso de processos industriais. Atuando como cérebro da operação, esses controladores têm a capacidade de lidar com aplicações complexas em diversas indústrias, suportando uma ampla gama de linguagens de programação. Já as portas Ethernet integradas funcionam como super rodovias de informação, permitindo que diferentes máquinas e sistemas de uma fábrica “conversem” entre si de forma rápida e precisa.

Automação é mais sustentabilidade

Automação no setor industrial é sinônimo de mais sustentabilidade. “Como você controla algo que não consegue medir? O primeiro passo é medir, ter esses dados, e a automação consegue provê isso,” explica Kruger sobre o papel de ferramentas inteligentes no sistema produtivo. 

A Rockwell Automation apresentou durante a Automation Fair o seu Tripe A Framework para sustentabilidade, uma abordagem que permite a identificação de desafios, de tecnologias e a criação de um plano estratégico para metas de sustentabilidade ambiental dentro das empresas.

“Tudo que você otimiza e que ganha produtividade, significa um menor consumo de insumos. A sua pegada de carbono é consequentemente menor. Na Rockwell Automation, nós somos um instrumento importante para ajudar a indústria a alcançar os seus objetivos de sustentabilidade,” avalia o executivo.

Delegação brasileira dobra de tamanho na Califórnia

A delegação brasileira participando da Automation Fair cresceu 25% neste ano, com mais de 120 representantes dos maiores grupos industriais do país acompanhando as principais tendências globais em tecnologia industrial.

O evento contou ainda com oito cases de sucesso de grandes grupos industriais brasileiros, entre eles Petrobras, Raízen e Votorantim. As empresas compartilharam suas experiências com tecnologias da Rockwell Automation que resultaram na inovação de processos, sistemas e maquinários, otimizando suas operações.

A comitiva brasileira na Automation Fair contou ainda com a presença do Consulado-Geral do Brasil pelo segundo ano consecutivo. 

Para Kruger, a indústria brasileira superou os grandes desafios legados pela pandemia e agora busca operações mais resilientes, eficientes e sustentáveis. A matriz energética do país deve ser cada vez mais um diferencial do Brasil como um exportador de produtos e equipamentos verdes.

Compartilhar

AWS anuncia novos recursos de banco de dados

No AWS re:Invent, a Amazon Web Services, Inc. (AWS), uma empresa da Amazon.com, Inc. (NASDAQ: AMZN), anunciou novos recursos para o Amazon Aurora e o Amazon DynamoDB para dar suporte às cargas de trabalho mais exigentes dos clientes que precisam operar em várias regiões com forte consistência, baixa latência e a mais alta disponibilidade, seja SQL ou NoSQL.
 

O Amazon Aurora DSQL é um novo banco de dados SQL distribuído e sem servidor que permite que os clientes criem aplicações com a mais alta disponibilidade, forte consistência, compatibilidade com PostgreSQL, leituras e gravações 4x mais rápidas em comparação com outros bancos de dados SQL distribuídos popularmente.
 

As tabelas globais do Amazon DynamoDB agora suportam consistência forte em vários locais, garantindo que as aplicações de várias regiões dos clientes estejam sempre lendo os dados mais recentes sem precisar alterar nenhum código.
 

“Os bancos de dados são como um bloco de construção fundamental para todos as aplicações, e os clientes confiam nos que são fornecidos pela AWS para alimentar suas cargas de trabalho mais críticas”, disse G2 Krishnamoorthy, vice-presidente de Serviços de Banco de Dados da AWS. “Ao longo dos anos, inovamos para oferecer aos clientes a mais ampla gama de bancos de dados escaláveis e de alto desempenho, incluindo o Amazon Aurora. Ele elimina a necessidade de os clientes fazerem concessões, fornecendo o desempenho de bancos de dados comerciais de nível empresarial com a flexibilidade e a economia do código aberto. Agora, estamos reimaginando o banco de dados relacional novamente para oferecer forte consistência, disponibilidade global e escalabilidade praticamente ilimitada, sem ter que escolher entre baixa latência ou SQL.”
 

O Amazon Aurora é um banco de dados relacional nativo da nuvem que oferece todo o desempenho e a capacidade de um comercial de ponta, com a flexibilidade e a economia de dados de código aberto. No entanto, à medida que os clientes criam cada vez mais aplicações distribuídas globalmente e em tempo real com milhões de usuários finais em todo o mundo, eles continuam a ultrapassar os limites dos bancos relacionais e querem mais do Aurora. Algo que atenda várias regiões com baixa latência, consistência forte, alta disponibilidade e zero de ônus operacional – e tem que ser SQL. As opções disponíveis atualmente os obrigam a fazer concessões. Algumas oferecem baixa latência e alta disponibilidade, mas não consistência forte ou compatibilidade com SQL. Outras oferecem consistência forte e alta disponibilidade, mas não conseguem evitar latência muito alta e ainda não oferecem compatibilidade com SQL. Agora, os clientes não precisam mais fazer concessões com o Aurora DSQL, o banco de dados SQL distribuído mais rápido que oferece consistência forte, leituras e gravações quatro vezes mais rápidas em comparação com outros SQL distribuídos popularmente, disponibilidade de 99,999% em várias regiões, escalabilidade praticamente ilimitada e gerenciamento de infraestrutura zero.
 

A arquitetura ativa-ativa do Aurora DSQL e a recuperação automatizada de falhas garantem que o aplicativo do cliente esteja sempre disponível, permitindo que leia e grave em qualquer ponto de extremidade do Aurora DSQL. Todas as transações gravadas em uma região são refletidas em outras regiões com forte consistência.

Com o Aurora DSQL, não há necessidade de provisionar, aplicar patches ou gerenciar instâncias de banco de dados, e todas as atualizações e patches de segurança ocorrem sem tempo de inatividade e sem impacto no desempenho. O Aurora DSQL é dimensionado automaticamente para atender a qualquer demanda de carga de trabalho, sem fragmentação de banco de dados ou atualizações de instância, e pode dimensionar leituras e gravações de forma independente, eliminando gargalos de dimensionamento e mantendo o desempenho. O Aurora DSQL é compatível com o PostgreSQL, oferecendo uma experiência de desenvolvedor fácil de usar.
 

Para tornar isso possível, a AWS teve que reinventar o processamento de transações de bancos de dados relacionais. O Aurora DSQL supera dois desafios históricos dos bancos de dados distribuídos: obter consistência forte em várias regiões com baixa latência e sincronizar servidores com precisão de microssegundos em todo o mundo. Para obter consistência forte em várias regiões com baixa latência, o Aurora DSQL desacopla o processamento de transações do armazenamento para superar as limitações das abordagens atuais, que eram limitadas pelo fato de as informações serem transmitidas várias vezes na velocidade da luz. Para superar isso, o Aurora DSQL só verifica cada transação no momento do commit e, no commit, paraleliza todas as gravações em todas as regiões para fornecer um banco de dados de várias regiões com consistência forte e gravações rápidas. Para garantir que cada região veja todas as operações do banco de dados na ordem exata em que ocorreram, o Aurora DSQL usa o Amazon Time Sync Service, que adicionou relógios de referência de hardware em cada instância do Amazon Elastic Compute Cloud (EC2), sincronizando-os com relógios atômicos conectados a satélites para fornecer um nível de precisão de microssegundos em qualquer lugar do mundo. Ao resolver esses desafios, o Amazon Aurora DSQL permite que os clientes criem aplicações distribuídos globalmente em uma escala totalmente nova.
 

Por exemplo, a Razorpay, uma das maiores empresas de fintech da Índia, está procurando usar o Aurora DSQL para potencializar novas soluções de fintech, ajudando-a a criar aplicações resilientes que podem ser rapidamente dimensionados para atender às necessidades de sua crescente base de usuários. O Aurora DSQL ajudará a Razorpay a obter consistência forte em várias regiões, o que é essencial para casos de uso financeiro que exigem altos graus de precisão para seus aplicações, enquanto opera com mais eficiência em escala global.
 

Consistência de várias regiões
 

O DynamoDB foi o primeiro banco de dados NoSQL totalmente gerenciado e sem servidor que transformou o que os aplicações em escala da Internet poderiam alcançar, redefinindo o desempenho e simplificando as operações com gerenciamento de infraestrutura zero e desempenho consistente de milissegundos de um dígito em qualquer escala. Hoje, clientes de praticamente todos os setores e tamanhos estão criando e modernizando suas aplicações essenciais, aproveitando as tabelas globais do DynamoDB, um banco de dados multirregional e multiativo oferecendo 99,999% de disponibilidade. A AWS agora está usando a mesma tecnologia subjacente aproveitada pelo Aurora DSQL para aprimorar as tabelas globais do DynamoDB, adicionando a opção de consistência forte à mais alta disponibilidade, escalabilidade praticamente ilimitada e gerenciamento de infraestrutura zero já disponíveis nas tabelas globais do DynamoDB.

A Reltio, cliente da AWS, processa mais de 9 bilhões de perfis de clientes para pesquisa de mercado e 60 bilhões de chamadas de API anualmente. Em 2020, a Reltio apostou tudo no Amazon DynamoDB para melhorar o desempenho, o dimensionamento e a segurança de sua solução de banco de dados. Agora, à medida que a Reltio continua a se expandir globalmente, a empresa planeja aproveitar a forte consistência de várias regiões nas tabelas globais do DynamoDB para atender aos rigorosos requisitos de resiliência e desempenho de sua crescente base de clientes.
 

Compartilhar