Rodrigo Kede, da IBM Brasil, fala sobre inovação e a busca de informação e conhecimento como diferencial competitivo

Rodrigo Kede, presidente da IBM Brasil, esteve em Curitiba para um encontro com associados da Amcham – Câmara de Comércio Americana. Após o evento, conversou com o jornalista Gilberto Campos em uma entrevista para o programa de tv Valor Agregado e o blog Curitiba IT.

O executivo destacou os quase cem anos de história da empresa no Brasil, disse que a inovação está no DNA da IBM e explicou porque a busca de informação e conhecimento como diferencial competitivo no mundo empresarial é cada vez mais crescente. Cloud, Big Data, Mobile e Computação Cognitiva também estão entre os principais assuntos abordados durante a entrevista.

Compartilhar

Como usar o Big Data para alavancar negócios

Por Ankur Prakash*

Se questionarmos executivos e profissionais de tecnologia, marketing e de gestão podemos afirmar com toda certeza que todos eles possuem muitas expectativas em relação ao Big Data. Diversas organizações ao redor do mundo começam a criar estruturas e maneiras de aplicar esse conceito inovador e, como consequência, obter retornos significativos para seus negócios.

Segundo o estudo de tendências globais de Big Data, publicado pela Tata Consultancy Services (TCS) em 2013, a busca por esse termo no Google passou de praticamente zero e explodiu nos últimos quatro anos. Os países mais interessados nessa busca são Estados Unidos, Canadá, Índia, Coreia do Sul, Austrália e Brasil, assim como boa parte da Europa Ocidental.

Apesar disso o estudo apontou que os investimentos em Big Data ainda estão abaixo do necessário, já que o valor médio por empresa não ultrapassou US$ 10 milhões. Para os executivos a principal característica que dificulta a aplicação de Big Data é cultural, seguida por tecnológica e por último como interpretar os dados e aplicar os resultados nas decisões de negócios.

Então qual o segredo para utilizar o Big Data para produzir grandes negócios? A tecnologia é um desafio, mas esse setor tem crescido muito nas últimas décadas, o que possibilita maior volume, velocidade e variedade para aplicação de Big Data. Hoje temos know how tecnológico suficiente para desenvolver com satisfação esse conceito nas empresas. Mas, para gerar grandes resultados precisamos transpor as barreiras culturais e, principalmente, saber como gerar negócios com tantas informações coletadas.

As empresas norte-americanas são as que registram as maiores iniciativas do segmento, sendo que 68% das pesquisadas haviam aplicado Big Data já em 2012. No Brasil esse número chegou a 46%, um pouco abaixo da média mundial, que atingiu 53%. Porém se levarmos em consideração a verba investida percebemos que esse crescimento ainda está muito aquém do necessário. Naquela época o Brasil investiu somente US$ 3,8 milhões, quase três vezes menos que as potências mundiais.

Temos alguns desafios pela frente para conquistar grandes resultados, mas as perspectivas são boas, afinal, segundo esses mesmos executivos, já em 2015 a média de dólares aplicados em Big Data será US$ 17,5 milhões por empresa, um crescimento de 75% se comparado com 2012. A utilização do Big Data possibilita o crescimento de tal forma que mesmo com poucos investimentos, 80% das empresas que aplicaram essa técnica conseguiram utilizar as informações para melhorar seus negócios e obter maior lucratividade.
Além disso, Big Data não é só para os países mais ricos, tampouco para setores específicos. O segmento de energia e recursos é um dos exemplos a serem seguidos. As empresas desse segmento são as que menos investiram nos últimos anos, mas as que mais obtiveram retorno. Conseguiram criar um modelo que apresentasse resultados significativos.
Os números da pesquisa mostra um futuro promissor para o Big Data e os retornos em volume de negócios podem ser imensos. O que é preciso é enxergar o real potencial do conceito e unir os profissionais de tecnologia, os executivos e todos os demais profissionais das organizações, propiciando assim que a grande quantidade de informações coletadas agregue valor à companhia e norteie o rumo dos negócios. Dessa forma entramos na geração do Big Data e do Big Business.

* Ankur Prakash é vice-presidente para a América Latina da Tata Consultancy Services (TCS), empresa líder em serviços de TI, consultoria e soluções de negócios.

Compartilhar

Microsoft investe em Big Data para trazer agilidade aos clientes nas decisões de negócios

Em constante ritmo de inovação, a Microsoft traz ao mercado brasileiro uma série de novidades para empresas de qualquer segmento e porte darem o primeiro passo para adotar uma solução de Big Data. Entre os lançamentos estão o SQL Server 2014, novo Appliance Microsoft Analytics Platform, Azure SQL Database Premium, atualizações no Azure HDInsight e Preview Público do Microsoft Intelligent System Service.

São anúncios que consolidam o posicionamento da companhia, que busca oferecer uma abordagem completa para soluções de gerenciamento e análise de dados em aplicações de negócios que exijam desde altos volumes e velocidade de transações (OLTP), BI, Data Warehouse e Big Data. Neste último caso, permite a análise de qualquer tipo de dado, estruturado ou não, proveniente de qualquer fonte, corporativa ou pública, em qualquer lugar e por meio de qualquer plataforma.

Em mercados cada vez mais competitivos e com normas e regulamentações mais rígidas, a pressão também é maior por melhores formas de gerir dados em todos os segmentos de indústria. A dinâmica dos mercados tem se transformado com pessoas e empresas mais conectadas e que trocam informações em formatos diversos e em grandes volumes. E deter tecnologia para identificar padrões comportamentais ou de consumo, por exemplo, tem se mostrado fundamental para melhores decisões estratégicas.

Os lançamentos da Microsoft mostram que a empresa segue apostando alto no alinhamento de sua atuação às chamadas quatro grandes tendências em TI (no original, “ 4 Big IT Trends”), ou seja, Cloud Computing, Mobilidade, Big Data e Social. “Queremos ajudar nossos clientes a darem o primeiro passo para adotar uma solução inovadora e impactante de Big Data por meio de tecnologias familiares ao usuário, como o SQL Server e o Microsoft Office – esta uma solução hoje utilizada por mais de um bilhão de usuários em todo o mundo e suportada por uma plataforma completa que gerencia todo o ciclo de vida dos dados. Sabemos que tempo de resposta é essencial nos dias de hoje e, por isso, inovamos ao trazer a tecnologia In-Memory para disponibilizar ganhos de performance não existentes anteriormente”, comenta André Echeverria, gerente geral da divisão de Servidores e Nuvem para Empresas da Microsoft Brasil.

Com a pioneira tecnologia In-memory nativa, o SQL Server 2014 oferece um alto nível de desempenho para os aplicativos de banco de dados mais exigentes. Um dos elementos fundamentais impulsionadores desta inovação é a dramática queda nos preços de memória dos servidores que permite, além de ganhos com performance ao colocar tabelas de dados em memória RAM, economizar custos com a aquisição de novo hardware. Em sua mais nova versão, o SQL Server traz essas vantagens do uso de tecnologia In-Memory para todo o ciclo de vida dos dados, permitindo ganhos esperados de performance de 10 a 30 vezes quando comparado a versões anteriores.

Além disso, o SQL Server 2014 facilita o trabalho em ambientes híbridos de TI, combinando tecnologia em infraestrutura física e em nuvem. Para esse último cenário, o grande destaque é o conjunto de ferramentas que simplificam a criação de backups na nuvem pública da Microsoft, o Microsoft Azure, principalmente para situações de Disaster Recovery. E é no ambiente Microsoft Azure que surgem três das novidades para o portfólio Microsoft: o banco de dados Azure SQL Database Premium, com maior capacidade de armazenamento e disponibilidade, o Azure HDInsight, serviço que permite o processamento de dados não estruturados na Nuvem agora suporta Hadoop 2.2, e o MS Intelligent System Service que trará a possibilidade de analisar dados provenientes de máquinas e sensores conectados à internet (comumente chamado de “Internet das Coisas”).

A plataforma de dados Microsoft SQL Server já é a tecnologia mais implantada no mundo e no Brasil, além de ser reconhecida como líder nos Quandrantes Mágicos do Gartner para Banco de Dados (Magic Quadrant for Operational Database Management Systems), Business Intelligence e Plataformas Analíticas (Magic Quadrant for Business Intelligence and Analytics Platforms) e Data Warehouse (Magic Quadrant for Data Warehouse Database Management Systems).

Já para Marco Bravo, diretor da Microsoft Brasil para o mercado corporativo, a nova versão do SQL Server deverá ser um grande aliado de empresas que pretendem crescer com inteligência. “A geração 2014 da plataforma de dados da Microsoft traz o que o mercado há muito tempo esperava: a capacidade de conectar as quatro grandes tendências da tecnologia – big data, mobilidade, redes sociais e nuvem – em um único movimento de geração de valor para o negócio dos nossos clientes. Diversas fontes de dados, estruturadas e não estruturadas vindas da web, podem ser combinadas e integradas pela nuvem em altos volumes, com velocidades inigualáveis de processamento analítico em memória e disponíveis em diversos tipos de dispositivos móveis através de interfaces ricas. Tudo isto disponível a uma fração do custo de soluções de muito maior complexidade de implementação de outros fornecedores”, afirma.

Outra boa notícia para empresas que pretendem utilizar o SQL Server 2014 é que a plataforma seguirá a mesma política de preço de sua atual versão, porém, agora, com ainda mais inovações e performance, o que leva a um custo total de propriedade (TCO) significativamente melhor e altamente competitivo no mercado.

Os anúncios ainda trazem duas soluções importantes para o trabalho em cenários de Big Data: o Microsoft Analytics Platform Solution, appliance para o processamento e a análise de grandes volumes de dados que traz embutido o mesmo HDInsight, permitindo o processamento de dados não estruturados com Hadoop. Esse appliance, um “Big Data in a box”, para Data Warehouse é uma evolução do Microsoft Parallel Data Warehouse, e traz uma solução pré-configurada que disponibiliza ainda mais agilidade para o processo de tomada de decisões de negócios em ambientes de TI mais complexos.

O Microsoft Intelligent Systems, apesar de ainda em Preview, trará ainda mais facilidades para empresas que pretendem enriquecer suas análises de BI e Big Data com dados públicos.

Entre os clientes que já estão testando as novidades no Brasil estão o Itaú Unibanco e a Kimberly-Clark. “Usando tabelas em memória com o SQL Server 2014 tivemos ganhos expressivos de performance em nossos testes, baseado na comparação com cenários simulados no mesmo ambiente e sem o uso dessa funcionalidade”, diz Estanislau Wagner Lucinaro, superintendente de sistemas de informações do Itaú Unibanco.

Já a Kimberly-Clark, empresa americana de cuidados pessoais que desenvolve produtos de consumo, beneficiou-se do novo SQL Server 2014 nos processos de Business Intelligence (BI) em seus negócios diretos. Hoje a solução tem grande importância nos negócios da empresa, pois permite um levantamento completo de dados que auxiliam na definição de estratégias e tomada de decisões. “Com a versão antiga do SQL Server, os executivos levavam um tempo maior para visualizar os dados pesquisados e não tinham os gráficos gerados. Além de agilizar o sistema de busca e resultados, utilizando as novas funcionalidades do SQL 14, como a tecnologia In-Memory, temos implementado um modelo de tabela para se tornar mais rápida, ágil e dinâmica todo o procedimento, inclusive a recuperação de dados de relatórios anteriores”, comenta Roberto Marietti, gerente de infraestrutura da Kimberly-Clark. A Programmers é a empresa parceira da Microsoft responsável pela implantação do novo SQL Server 2014 na Kimberly-Clark.

Compartilhar

it-sa Brasil 2014 promove discussões sobre segurança da informação

A it-sa Brasil 2014 começa hoje, no Clube Transatlântico, em São Paulo, promovendo discussões sobre ataques cibernéticos. A Conferência organizada pela NürnbergMesse Brasil em parceria com a TeleTrust, associação alemã de Segurança da Informação, discutirá nos dias 15 e 16 de abril temas relevantes para o setor, entre eles: Cloud Security, Big Data, Mobile Security, Internet of Things (IoT) e Cyber Security.

O primeiro dia do evento destaca o tema Internet of Things. De acordo com o relatório divulgado pela Symantec, esse foi um dos pontos visados por hackers em 2013 por conta da maior quantidade de dispositivos conectados, que variam desde babás eletrônicas, câmeras de segurança até smart TVs. Para apresentar os benefícios e riscos para as empresas, especialistas como André Carraretto, Estrategista de segurança da Symantec e Marcos Sakamoto, Gerente-Geral de IT Services Solutions da NEC participarão do painel sobre o tema.

Na grade do dia também será discutido o tema Cloud Computing. Especialistas como Keiji Sakai, Diretor da BMF&Bovespa e Rodrigo Rubira Branco, Senior Security Researcher da Intel Corporation, debatem Redução de Custos versus Vulnerabilidade de um setor que, segundo a IDC, movimentou cerca de US$ 257 milhões em 2013.

No período da tarde, será a vez do tema Cyber Security, que discute os desafios e ameaças emergentes. O Tenente Coronel do Exército Brasileiro, Rogério Winter, comanda o painel como moderador, que conta com renomados especialistas. Alan Brill, Diretor da Kroll Advisory Solutions e Evandro Hora, Sócio-Fundador da Tempest, estão entre os painelistas do tema.

Para contextualizar o BigData no cenário brasileiro, a moderadora Claudia Ferraz, SAP Senior Finance Solution Architect da GE Power Conversion, conduz uma discussão sobre os riscos de ataques cibernéticos e soluções para manter em segurança dados pessoais de consumidores e informações estratégicas das corporações. Farão parte deste painel, os especialistas Lisias Lauretti, CIO da Serasa Experian; Sandro Süffert, CEO da Apura; Alberto Bastos, Módulo Big Data; e Paulo Nasser, Software Leader na GE Intelligent Platforms.

Os temas Mobilidade e Mobility Payment fecham as discussões do primeiro dia de evento. Gadafe Alexandre, Diretor da Nextsourcing e Edson Moraes, Diretor da BSI serão moderadores dos assuntos, que apresentarão formas de crescer com segurança e soluções que a indústria oferece para combater as fraudes e riscos dos pagamentos móveis, tanto para smartphones como também para caixas eletrônicos e máquinas de cartão de crédito.

No dia 16 de abril, a infraestrutura nacional será discutida nos temas Cidades inteligentes e Cyber Security. Os desafios da proteção, segurança e privacidade estarão presentes em painéis que contarão com especialistas no tema como o diretor de engenharia da TV Alphaville, Alexandre Garbelini; o Dr. Per Gustavsson, da Combitech; o Dr. Paulo Cesar Costa, Professor da George Mason University; Katia Galvani, Head Government Digital Brasil da TelefônicaIVivo, entre outros.

Informações adicionais: www.itsa-brasil.com.br

Compartilhar

Gartner afirma que a Internet das Coisas transformará os Data Centers

De acordo com o Gartner, Inc., líder mundial em pesquisa e aconselhamento sobre tecnologia, a Internet das Coisas tem um efeito de transformação potencial no mercado de Data Centers, em seus clientes, fornecedores, tecnologias e modelos de vendas e marketing. Estima-se que a Internet das Coisas incluirá 26 bilhões de unidades instaladas, até 2020, e os fornecedores de produtos e serviços vão gerar receitas adicionais superiores a US$ 300 bilhões – a maioria, em serviços. Esta é uma das tendências que vão impactar infraestrutura e operações das empresas, assunto que será debatido na palestra de Henrique Cecci, diretor de pesquisa do Gartner e chairman da Conferência Infraestrutura de TI, Operações e Data Center, nos dias 1 e 2 de abril (Terça e Quarta-feira), no Sheraton São Paulo WTC Hotel.

“As implantações de Internet das Coisas vão gerar grandes quantidades de dados, que precisam ser processados e analisados em tempo real”, afirma Henrique Cecci. “Este processamento aumentará na proporção das cargas de trabalho dos Data Centers, fazendo com que fornecedores tenham novos desafios de analíticos, segurança e capacidade”.

A Internet das Coisas conecta ativos remotos e fornece um fluxo de dados entre eles e sistemas de gerenciamento centralizados. Estes ativos podem, então, integrar-se a processos organizacionais novos e existentes para prover informações sobre status, localização, funcionalidade, entre outros. A informação em tempo real permite entender mais precisamente o status, o que aprimora a utilização e a produtividade, por meio do uso otimizado e do apoio a decisões mais precisas. Analíticos de negócios/dados oferecem insights para a alimentação de dados de requisitos de negócio do ambiente de Internet das Coisas e ajudarão a prever as flutuações dos dados enriquecidos e de informação.

“O grande número de dispositivos, junto com o grande volume, velocidade e estrutura de dados de Internet das Coisas criam desafios, particularmente, nas áreas de segurança, dados, gestão de armazenamento, servidores e redes de Data Center, na medida em que os processos de negócios em tempo real estão em jogo”, diz Cecci. “Os gerentes de Data Center precisarão implantar mais gerenciamento de capacidade preditivo nestas áreas para conseguirem atender proativamente às prioridades de negócios associadas à Internet das Coisas”.
O Gartner identificou as seguintes mudanças potenciais:

• Segurança – A crescente digitalização e automação dos milhares de dispositivos implantados em diferentes áreas dos ambientes urbanos modernos darão origem a novos desafios de segurança para muitos setores.

• Empresa – Os significativos desafios de segurança continuarão pelo fato de que o Big Data – criado a partir da implantação de inumeráveis dispositivos – aumentará, drasticamente, a complexidade de segurança. Isto, por sua vez, impactará nas exigências de disponibilidade, que também devem crescer, colocando processos de negócios em tempo real e, potencialmente, segurança pessoal em risco.

• Privacidade do consumidor – Como já acontece com os equipamentos de medição inteligente e automóveis cada vez mais digitais, haverá um vasto volume de dados fornecendo informações sobre o uso pessoal dos dispositivos que, se não forem seguros, podem abrir caminho para violações de privacidade. Isto é um desafio, pois a informação gerada pela Internet das Coisas é essencial para trazer melhores serviços e o gerenciamento destes aparelhos.

• Dados – O impacto da Internet das Coisas no armazenamento tem duas vertentes em relação aos tipos de dados a serem armazenados: pessoais (de consumidores) e Big Data (de empresas). Dados serão gerados, na medida em que os consumidores usam Apps e os dispositivos continuam a aprender sobre eles.

• Gestão de armazenamento – O impacto na infraestrutura de armazenamento é outro fator que contribui para a demanda crescente por mais capacidade e um dos que deverá ser resolvido, pois estes dados se tornam mais presentes. O foco atual precisa ser na capacidade de armazenamento, bem como, em saber se o negócio é capaz de coletar e usar dados da Internet das Coisas de uma maneira efetiva em termos de custos.

• Tecnologias de servidores – O impacto da Internet das Coisas no mercado de servidores será amplamente focado no investimento crescente em segmentos chave e organizações relacionadas a eles, nos quais a Internet das Coisas possa ser rentável ou gere valor significativo.

• Rede de Data Center – Os links WAN de Data Center são dimensionados para as necessidades de largura de banda moderada, geradas por interações humanas com aplicações. A Internet das Coisas deve mudar esses padrões ao transferir grandes volumes de dados de sensores de mensagens pequenas ao Data Center para processamento, aumentando as necessidades por largura de banda de entrada no Data Center.

A dimensão das conexões de rede e dados associados com a Internet das Coisas vai acelerar a abordagem de gerenciamento de Data Center distribuído que requer dos fornecedores ofertas de plataformas de gerenciamento de sistema eficientes.

”A Internet das Coisas ameaça gerar grandes volumes de dados de entrada de fontes globalmente distribuídas. Transferir todos esses dados em um único local para processamento não será técnica e economicamente viável”, explica Cecci. “A recente tendência de centralizar aplicações para reduzir custos e aumentar a segurança é incompatível com a Internet das Coisas. As organizações serão forçadas a agregar dados em múltiplos mini Data Centers distribuídos, nos quais o processamento inicial pode ocorrer. Os dados relevantes serão enviados a um site central para o processamento adicional”.

A nova arquitetura apresentará desafios significativos às equipes de operações, pois eles precisarão gerenciar todo o ambiente como uma entidade homogênea, enquanto monitoram e controlam localidades individuais. Além disso, fazer backup desse volume de dados terá questões de governança potencialmente não solucionáveis, tais como, largura de banda de rede e de armazenamento remoto e a capacidade de fazer backup de todos os dados brutos que, provavelmente, será inviável. Consequentemente, as empresas terão que automatizar o backup seletivo dos dados que acreditam serem valiosos. A seleção e a classificação vão gerar cargas de processamento de Big Data adicionais, que consumirão mais recursos de processamento, armazenamento e redes e terão de ser administrados.

As operações de Data Center e os fornecedores precisarão implantar plataformas de gestão de capacidade mais preditivas, que possam incluir uma abordagem de sistema de gerenciamento de infraestrutura de Data Center que alinhe TI, padrões de tecnologia operacional e protocolos de comunicações. O objetivo é poder oferecer, proativamente, a unidade de produção para processar os dados de Internet das Coisas baseados nas prioridades e necessidades do negócio. Na fase de planejamento do Data Center, modelos de rendimento derivados de plataformas de gerenciamento de capacidade estatística ou ferramentas de capacidade de infraestrutura incluirão aplicações de negócios e fluxos de dados associados. “Estes cenários impactarão o design, as mudanças na arquitetura ao fazer a virtualização, bem como os serviços na Nuvem. Isto reduzirá a complexidade e impulsionará a capacidade sob demanda para entregar confiabilidade e continuidade de negócios”, afirma o diretor de pesquisa do Gartner.

Anote em sua agenda: Conferência Gartner Infraestrutura de TI, Operações e Data Center
Dias 1 e 2 de abril de 2014 (Terça e Quarta-feira)
Local: Sheraton São Paulo WTC Hotel – Av. das Nações Unidas, nº 12.559
Site: www.gartner.com/br/datacenter.

Compartilhar

Dados In-Memory: o fim do Business Intelligence?

Por David Akka * no portal CIO

Desde que os sistemas de Business Intelligence (BI) evoluíram para data warehouses, as empresas têm conseguido analisar e agir com quantidades cada vez maiores de informações que possuem em seus bancos de dados. No entanto, a tendência atual em direção ao Big Data e análises em tempo real faz os sistemas de BI parecerem dinossauros: os dados de ontem são velhos demais para serem relevantes, fazendo com que as empresas percam oportunidades quando confrontadas com concorrentes cada vez mais ágeis.

A tecnologia de dados in-memory está tornando esse mundo uma realidade, sendo capaz de lidar com dados tradicionais e dados não estruturados, porém, que mudanças precisam ser feitas? Será possível integrar sistemas de BI legados no contexto do Big Data?

Como chegamos até aqui
A história do BI está relacionada com a escala, precisão (descritiva ou preditiva), facilidade e escopo com os quais tentamos analisar os dados. Antes da chegada dos sistemas de BI, aplicativos corporativos tinham seus próprios bancos de dados, que continham todas as informações que eles podiam acessar para realizar suas funções e era possível obter informações úteis sobre o negócio a partir desses dados. Por exemplo, um banco de dados de clientes pré-BI continha informações que poderiam ser usadas para segmentar a base de clientes e orientar o marketing, as vendas e os investimentos de P&D.

No entanto, esses sistemas eram ilhados porque não eram ligados a outros sistemas: eles não eram capazes de compartilhar bancos de dados e, apesar de cada sistema manter dados importantes, seu valor era limitado. O problema agravou-se conforme as empresas adquiriam mais sistemas de TI ligados a vários departamentos, tais como CRM, ERP, RH, finanças e atendimento ao cliente. Fusões e aquisições fizeram as empresas ficarem com vários sistemas para cumprir os mesmos requisitos funcionais, mas agindo contra um subconjunto de dados totais da empresa para a função específica. Nesse ponto, o potencial analítico diminuiu, pois a complexidade de se obter um único ponto de vista preciso dos dados aumentou com cada sistema novo.

Foi nesse momento que o conceito de Data Warehouse de BI surgiu, como um repositório único para todos os dados da empresa, onde os dados podem ser organizados, analisados ​​e trabalhados de forma útil pela empresa. O desafio que as empresas enfrentam hoje decorre da maneira pela qual essa visão foi implantada e das ferramentas utilizadas.

Ferramentas de extração, transformação e carregamento (ETL) foram desenvolvidas para lidar com a movimentação de dados dos sistemas corporativos para Data Warehouses, inclusive para tornar os dados legíveis e mantê-los atualizados, e os sistemas de orquestração de processos de negócios também são capazes de conectar dados com Data Warehouses da mesma forma. Motores de mineração de dados realizavam a análise dos dados no data warehouse, e ferramentas de relatórios eram ligadas à mineração de dados para fornecer um resultado de fácil compreensão.

Essas ferramentas foram capazes de fornecer às empresas dados históricos precisos e completos, além de certo grau de previsibilidade, com a extrapolação de tendências passadas. No entanto, o Big Data já começa a ganhar uma aceitação generalizada, e isso muda completamente a maneira com que usamos o BI.

Por que o Big Data é diferente?
Big Data na verdade é um termo que pode enganar, já que ao ouvir esse nome imagina-se bancos de dados maiores e mais complexos, mas a realidade é que Big Data se refere a um tipo muito diferente de dados: trata-se de dados não estruturados, que não podem ser mapeados em um banco de dados relacional tradicional. Big Data é caracterizado pelos “Quatro Vs”: volume, velocidade, variedade e valor.

– Volume refere-se ao fato de que podemos gerar uma enorme quantidade de dados, gerando quantidades cada vez maiores. Por exemplo, smartphones contêm um conjunto de sensores que produzem dados, os quais podem ser consultados para uso em análises, como em sistemas de GPS. Conforme o número, complexidade e exploração de smartphones aumentam (mais smartphones produzindo mais dados e usuários que sabem como utilizá-los), o volume de dados produzidos também aumentará.

– Velocidade significa que os dados mudam rapidamente, por isso, em vez de dados de BI tradicionais sobre pedidos de clientes que podem ser manipulados em lotes, nós temos dados de localização de smartphones, que ficam desatualizados em minutos ou mesmo segundos, caso nosso objetivo seja enviar uma oferta específica a um cliente em uma rua.

– Variedade refere-se aos vários tipos de dados e fontes, de bancos de dados a objetos de áudio e vídeo (aos quais podemos anexar contexto e se tornam parte da análise) e quantidades crescentes de dados móveis e sociais não estruturados.

– Valor é exatamente o que o nome diz: quanto mais obtemos ao analisar o Big Data, mais valor podemos extrair dele.

Isto significa que estamos saindo de um modelo em que os data warehouses são a “única fonte da verdade” para uma empresa e nos movendo em direção a uma visão mais descentralizada, onde os bancos de dados são enriquecidos com informações em tempo real e não relacionais. Há apenas um problema: como podemos fazer nossas ferramentas de BI existentes trabalharem nesse novo contexto?

Ferramentas analíticas e de data warehousing existentes são projetadas para executar consultas predefinidas ou ad-hoc em grandes bancos de dados, mas a análise preditiva e os dados em tempo real exigem ferramentas diferentes, portanto nossas ferramentas existentes teriam de ser reprogramadas para que possam trabalhar com eles.

Como podemos acolher o Big Data?
Tudo isso leva a uma questão fundamental: o Big Data e seus dados in-memory associados estão aposentando as ferramentas de BI tradicionais? Qualquer tentativa de responder a essa questão só irá trazer mais questões: devemos estender a integração corporativa existente para as novas ferramentas? A computação In-Memory irá substituir o ETL e o processamento em lotes? As melhorias do ETL, como a integração com base em processos, continuam a liderar o caminho nesse novo contexto? Ou será que precisamos de uma plataforma inteligente que possa integrar todos estes elementos?

Não quero tentar responder a estas questões aqui, pois isso é assunto para outro dia. Em vez disso, eu gostaria de mostrar a diferença que o novo contexto pode trazer e deixar que vocês pensem sobre o que isso pode trazer para sua empresa.

Imagine uma loja de rua, como a House of Fraser: no modelo de BI tradicional, eles desejariam guardar seu histórico de transações e, para isso, iriam oferecer um cartão de fidelidade. Passar esse cartão toda vez que você fizer uma compra iria possibilitá-los monitorar o que você comprou e colocar estes dados em um data warehouse ou cubo, onde os dados poderiam ser cuidadosamente segmentados para fornecer informações sobre quais promoções poderiam ser oferecidas para você. O problema é que esta é uma solução reativa, tentando fazer uma extrapolação com base em uma atividade passada, ela não oferece uma experiência muito personalizada, além disso, os clientes gostam cada vez menos de cartões de fidelidade.

Em um contexto In-Memory do Big Data, o quadro é muito diferente. O lojista não precisa persuadir o cliente a fazer um cartão de fidelidade, pois eles podem rastrear suas compras pelo seu número de cartão de crédito. Eles sabem para qual tipo de compras aquele cartão específico é usado e podem rastrear as diferenças entre as diversas compras. Por exemplo, se você faz duas compras semanais, mas comprou um cinto na primeira compra, o sistema poderia, de forma inteligente, oferecer a você uma oferta em que você possa estar interessado. Não outro cinto (você já tem um), mas, por exemplo, uma oferta de meias que as pessoas que também compraram esse cinto usam.

Para criar e personalizar essa promoção, seria possível utilizar dados sobre as pessoas perto de você, dados demográficos semelhantes e o que as pessoas que compraram o mesmo item disseram sobre ele nas mídias sociais. Quem recomendou a marca, ela foi destaque em algum jornal ou revista? Não é apenas a quantidade de dados que pode ser ampliada, eles precisam também abranger dados estruturados e não estruturados, e o tipo de informação que antes seria difícil de coletar ou analisar agora é exatamente o que vai convencer o cliente a comprar.

Esta promoção personalizada é possível, em tempo real, sem cubos de dados ou Data Warehouses, sem BI e apenas tendo suas compras e as compras de todos os outros clientes na memória. “Em tempo real” também significa que as ofertas não precisam esperar até que você esteja no caixa (momento em que o cliente para de pensar em fazer compras e passa a pensar em ir para casa e fica, portanto, menos receptivo). Em vez disso, combinando a oferta com aqueles scanners portáteis que são cada vez mais populares em supermercados, você poderia receber uma oferta personalizada assim que você pegar um item ou passar em um corredor. Se você já recebeu suas compras em casa e lembrou depois de outra coisa que você precisava, imagine como seria útil receber um lembrete rápido sobre seus itens mais comprados.

(*) David Akka é CEO da Magic Software UK

Compartilhar

IDC: 2014 será um ano de crescimento, inovação e transformação no uso de tecnologias

De acordo com a IDC, empresa líder em inteligência de mercado, serviços de consultoria e conferências para os mercados de Tecnologia da Informação e Telecomunicações. o investimento em TI na região será de US$ 139 bilhões, com um crescimento de 8,4% em comparação com o fechamento de 2013. Já os gastos com serviços de telecomunicações alcançarão US$ 219 bilhões, um crescimento de 8%. Os tablets, smartphones, serviços de TI, armazenamento e software embutido serão as categorias de crescimento mais rápido de TI, com 34%, 18%, 11%, 11% e 10% respectivamente. As previsões para 2014 foram apresentadas pela IDC América Latina. As previsões específicas para o Brasil serão apresentadas na primeira semana de fevereiro, pela IDC Brasil.

“A inovação e o valor são dois fatores chave para gerar competitividade sustentável na América Latina durante 2014; onde as Tecnologias da Informação e Comunicação (TIC) desempenharão um papel cada vez mais importante. A migração para a terceira plataforma (uma mudança arquitetônica baseada em quatro pilares: Cloud, Big Data, Mobilidade e tecnologias sociais) será o centro da transição entre o valor e a inovação, impulsionada pela transformação dos processos nas organizações, onde a mobilidade será a prioridade desta nova geração de consumidores”, disse Ricardo Villate, Vice-presidente do Grupo na IDC LA.

Com base nas percepções dos principais analistas da IDC América Latina, 2014 será um ano de crescimento mais moderado em comparação com os anteriores, em que as empresas e as indústrias começarão a transformação completa das soluções de outras plataformas que tiveram início em 2013. Além dos dois motores da região (Brasil e México), os fornecedores estarão realizando apostas de longo prazo nos países que vêm mostrando uma clara preferência pelas políticas de livre comércio que incentivam o aumento dos investimentos em TI, tais como Colômbia, Chile e Peru.

Principais previsões para América Latina para 2014:

1. Mudando o poder de compra: Os executivos seniores (C-Suite) continuarão ganhando importância nas decisões de TI
A terceira plataforma tecnológica mostrou que a nova dinâmica do mercado está sendo de ruptura, uma vez que foram minimizadas as conversações técnicas e os processos de negócios estão se tornando o centro das atenções. É importante destacar que, longe de diminuir a relevância da tecnologia, este cenário a transforma até o ponto em que ela mesma já não seja uma ferramenta de negócios, senão, no próprio negócio.

A relevância dinâmica da terceira plataforma é tal que implica em uma transformação integral das linhas de negócios, gerando uma nova forma de pensar sobre como relacionar este novo processo de pensamento de TI. Áreas como marketing, vendas e recursos humanos aumentarão seu envolvimento na aquisição de tecnologia em até 60% em 2014, e cerca de 20% de todo o investimento em hardware, software e serviços das empresas serão ancorados pelos orçamentos das linhas de negócios, resultando em quase US$ 10 bilhões de investimentos.

2. A terceira Plataforma Tecnológica aumentará a pressão sobre a capacidade da rede
Em 2013, a IDC previu o aumento das tecnologias da terceira plataforma e seus quatro pilares: mobilidade, cloud, Big Data e Social; no entanto, a rede não esteve à margem das pressões adicionais de conectividade colocadas pelas novas tecnologias de ponta.
As novas tecnologias que consideram cada vez mais a integração de conceitos tais como globalização, produtividade, colaboração, inovação e orientação para os negócios, conduziram as tendências que demandam melhorias na rede para gerenciar o crescimento de voz e vídeo sobre IP, bem como a proliferação de dispositivos wireless conectados à rede, virtualização e crescimento de cloud computing.
De acordo com uma pesquisa recente da IDC, realizada com líderes de tecnologia na região, mais de 53% das empresas disseram que requerem uma rede mais robusta na América Latina e 61% deles afirmaram que a disponibilidade de banda larga é uma das principais preocupações.
A estratégia da tecnologia será um híbrido e implicará uma série de estratégias combinadas, onde a tecnologia fixa (fibra – FTTx) e a tecnologia móvel (3G – 4G) irão complementar-se. De um ponto de vista técnico, o Wi-Fi aparecerá como uma solução chave para a saturação da rede e do espectro, o que se mostrará como uma opção atrativa, com custos baixos de instalação e de taxas regulamentares.
Em 2014, os mercados da América Latina começarão a ver os planos de multimídias integradas com a Mbps como a unidade de consumo dos preços, bem como mais e mais modelos de serviços transacionais. A IDC visualiza que mais de 70% das empresas da América Latina levará em conta a melhoria da segurança em WAN como seu principal objetivo dentro de seus planos de otimização da rede.

3. O gerenciamento das cargas de trabalho definirá a infraestrutura, facilitando o caminho da Infraestrutura Convergente (IC) e o Software Define Everything – SDx (Tudo definido por software).
A adoção dos sistemas integrados foi pouco acelerada; no entanto, o mercado continua a evoluir, a complexidade do sistema cresce, e as implantações de data centers se expandem. Da mesma forma, as empresas da América Latina começaram a acelerar a opção deste tipo de arquiteturas em 2013. O crescimento dos investimentos em infraestrutura convergente aumentou mais de 60% durante o primeiro semestre de 2013. A crescente adoção da Infraestrutura Convergente foi especialmente rápida nos mercados verticais como finanças, telecomunicações, varejo e manufatura.

A IDC estima um crescimento de dois dígitos da IC para 2014, derivada de uma proposta de valor direcionada pela indústria, bem como a maior capacidade de integração através da camada de middleware. Em muitos casos, as arquiteturas da IC estão posicionadas como um passo seguinte no caminho para a virtualização, em um contexto de fornecimento dinâmico, em que a carga de trabalho e, portanto, o software, é o que irá definir a demanda de infraestrutura.
Em 2014, a expressão “fornecimento dinâmico” será comum e estará fortemente relacionada com qualquer iniciativa de entrega como serviço (as a Service) de uma carga de trabalho; ultimamente, o caminho é do fornecimento dinâmico que também levará ao que se denomina tudo definido por Software (SDx).

O SDx permite que as infraestruturas de computação sejam visualizadas e entregues como um serviço onde a computação, redes, armazenamento ou inclusive o serviço completo de data center são automatizados por software programável, o que resulta em soluções mais dinâmicas e rentáveis. O SDx é apresentado como um conceito de gestão de rede mais simples, ressaltando atributos como a otimização da capacidade da rede, integração além do core da rede, melhores padrões de interoperabilidade, soma de novas camadas de inteligência da rede, e, portanto, novas métricas de desempenho desta.

O SDx facilitará a otimização da capacidade da rede, integração além do core da rede, melhores padrões de interoperabilidade, soma de novas camadas de inteligência da rede, e, portanto, novas métricas de desempenho desta.
A captação dos sistemas de infraestruturas convergentes é resultado da demanda de pressão para a otimização da gestão da carga de trabalho, independentemente de que se trate de riscos de processamento de dados na indústria financeira, gestão de dados de clientes nos setores de telecomunicações ou das indústrias de varejo, ou da análise de negócios em organizações de manufatura ou de serviços.

4. Big Data/Analytics evoluirá da doutrina à realidade
Em 2013, a América Latina entrou em uma fase de educação, em que se refere às tecnologias de Big Data, onde os players do mercado dedicaram grandes esforços para criar uma consciência em torno dos benefícios da implantação de uma inteligência superior ao longo das redes e sistemas. Tais ações de mercado deram seus frutos até o ponto em que os investimentos relacionados com o Big Data (em hardware, software e serviços) foram elevados para US$ 450 milhões na América Latina, somente em 2013. Este nível de investimento pode ser comparado às tecnologias relacionadas com a nuvem durante 2011.
Em 2014, o Big Data se tornará um mercado com massa crítica na América Latina, uma vez que as forças subjacentes que promovem a adoção do Big Data são mais fortes na América Latina que nas regiões desenvolvidas no mundo. Além disso, os dados não estruturados como aqueles gerados nas redes sociais encontram um terreno fértil em uma região como a América Latina, que tem a maior penetração do Facebook em comparação com outras regiões do mundo. As pesquisas da IDC com usuários finais mostram que a maior parte das organizações já captura dados de áudio e vídeo na América Latina, em comparação com os Estados Unidos, e, para 2014, mais de 20% das empresas de médio e grande porte da região estarão analisando o bate-papo social, vídeo e dados de geração por sensor.
Em 2014, as organizações empresariais latino-americanas irão acelerar sua curva de aprendizado para derivar, em última instância, as estratégias de marketing baseadas em métricas e análises sociais. A IDC espera que mais de 60% das empresas na região começarão a utilizar em 2014 as redes sociais públicas para a comercialização / atendimento a clientes / vendas.
A IDC prevê o crescimento sustentável do Big Data na América Latina, onde a soma de hardware, software e serviços em torno do Big Data atingirá US$ 819 milhões durante 2014.

5. A modernização dos aplicativos continuará liderando o caminho para a adoção da nuvem pública.
Em 2013, mais de 60% das principais empresas na América Latina estavam construindo, transformando e ampliando sua rede e infraestrutura para dar suporte às soluções da terceira plataforma e estavam implementando o uso da nuvem pública. A partir do primeiro semestre de 2013, mais de 34% das empresas na região estavam divulgando e/ou tinham planos concretos para mover algumas cargas de trabalho para a nuvem até 2014, tendo um impacto sobre a infraestrutura do data center, uma vez que implica em requisitos adicionais de capacidade. Isto foi validado pelos líderes tecnológicos latino-americanos entrevistados pela IDC, os quais expressaram que, nos próximos cinco anos, a demanda dos data centers aumentará em mais de 80%, o que acrescenta uma pressão extra sobre as redes para oferecer uma capacidade segura, disponível e superior.
Em 2014, os data centers na região continuarão centralizando suas capacidades na prestação de serviços de nuvem pública para as organizações latino-americanas. Os players mais importantes da região no setor de telecomunicações manterão fortes investimentos em infraestrutura moderna, bem como na preparação de recursos humanos, especialmente em relação às certificações de segurança e gestão.
A IDC considera que o crescimento do mercado de serviços de nuvem pública na região será um dos mais elevados em todos os setores de tecnologia, crescendo cerca de 67% até 2014, atingindo mais de US$ 1 bilhão. As empresas mais beneficiadas pela utilização destas soluções serão aquelas que já se inseriram no caminho da nuvem através das opções privadas e estarão prontas para assumir novas mudanças em ambientes de nuvem pública.

6. Do BYOD ao “Mobile First”: as ferramentas de gerenciamento móvel irão empurrar a estratégia de negócios para o próximo nível.
No final de 2012, as empresas na América Latina deram um passo para trás no Bring your Own Device (traga seu próprio dispositivo – BYOD) devido ao crescimento dos dispositivos móveis levados pelos funcionários, então a taxa de empresas que permitiu o uso de dispositivos móveis pessoais na organização foi de 33%; contudo, para o fechamento de 2013 houve uma recuperação, chegando a 43% de crescimento.
Atualmente, as organizações alcançaram melhor compreensão da importância de desenvolver uma estratégia de mobilidade integrada que inclua não apenas os dispositivos, mas todo o ecossistema móvel. Isto se reflete no fato de que a metade das empresas que permitem o uso dos dispositivos pessoais com responsabilidade está incorporada dentro de uma plataforma de movile device management (MDM).
O grande crescimento da base instalada de dispositivos trouxe um forte impacto em correlação com o tráfego de consumidores. De acordo com uma pesquisa recente da IDC, os tomadores de decisão em TI esperam que o tráfego derivado da utilização de tablets cresça 55% em 2014, enquanto o tráfego de smartphones e laptops aumente 34% e 26%, respectivamente.
Esta tendência de mercado está mostrando uma crescente maturidade em termos de usos de dispositivos móveis e ferramentas que conduzirão os conceitos BYOD/consumo da América Latina para se tornarem “Mobile First”. Este conceito requer uma abordagem diferente para a estratégia móvel, para que a gestão móvel se torne a base fundamental para garantir a gestão dos diferentes componentes: dispositivo, conectividade, aplicativos, segurança, acesso, identidade, conteúdo, controle de informação, análise e apresentação de relatórios.

7. A próxima onda de Mobilidade Empresarial: Do E-mail para os aplicativos corporativos
A adoção de aplicativos móveis na América Latina é bastante convencional, sendo o e-mail a principal (e na maioria dos casos a única) ferramenta que está sendo mobilizada em mais de 90% das empresas da região. A mobilização dos aplicativos relacionados ao negócio, tais como o ERP, gestão de relações com clientes (CRM), automação de força de vendas, automação de trabalhos de campo, ainda representa não mais que 20% da adoção em 2013.
No entanto, há inúmeros fatores que permitem prever um padrão diferente para 2014. Em primeiro lugar, os gigantes da indústria de TI estão focando fortemente oferta de mobilidade. Em segundo lugar, a força de trabalho móvel está experimentando um grande crescimento ano após ano no mundo, e a América Latina não é a exceção. No final de 2014, mais de 40% dos funcionários na região será móvel, o que significa que trabalharão longe de suas mesas e o uso de dispositivos móveis será essencial para as rotinas diárias. Além disso, a crescente base de dispositivos com responsabilidade pessoal aponta para um crescente poder de computação nas mãos dos funcionários, que ao mesmo tempo ajudarão as empresas a serem mais produtivas e competitivas, tendo em vista a crescente pressão dos clientes, sócios e funcionários para a inovação.
A IDC espera que mais de 30% das organizações empresariais latino-americanas mobilizem aplicativos relacionados com a empresa, como a automação de serviços de campo, automação do fluxo de trabalho, CRM e ERP durante 2014.

8. A Internet das coisas (Internet of Things – IoT) irá acelerar através do B2B
Muito se falou em 2013 sobre a Internet das coisas (IoT), ampliando a capacidade dos dispositivos conectados praticamente até o infinito. A IoT engloba as soluções tecnológicas que permitem uma comunicação contínua e autônoma entre as máquinas. Neste contexto, é fácil prever que o maior volume de negócios relacionados com a IoT será de empresa ao consumidor (Business to Consumer – B2C) com conceitos como “lar conectado”, “carro conectado”, “carteira móvel”, “roupa inteligente”, entre outros; onde milhões de conexões inteligentes entre os dispositivos irão impulsionar a dinâmica do mercado. No entanto, segundo a IDC, “na América Latina estamos em etapas muito incipientes, de fato que é no campo das empresas (Business to Business – B2B) onde vemos mais oportunidades de negócios criados através da Iot. Em 2014, veremos as organizações evoluindo neste conceito de conectividade através de quatro modelos diferentes de conexão: dados através de redes, pessoas através de dispositivos, processos através de aplicativos e coisas através de máquinas”.
Para 2014, somente na América Latina, a IDC espera que 17,5 milhões de dispositivos novos estejam conectados entre si de forma autônoma. Em termos de receitas, a IDC projeta que no mercado da América Latina, a IoT se tornará um negócio de cerca de US$ 4 bilhões em 2014 (englobando não somente a conectividade, mas também hardware, software, plataformas, integrações e ferramentas de análise), com um crescimento anual de 30% até 2017.

9. As razões para a adoção de dispositivo se distanciarão dos dispositivos, centralizando-se no uso e criação de conteúdo.
O comportamento bipolar do mercado de dispositivos de consumo no último ano não é nenhum segredo. Enquanto o mercado tradicional de PC desktop / portátil tem estado em crise a nível global, na América Latina não foi diferente, já que teve uma redução de 7%, o que representou 34 milhões de unidades vendidas em 2013. Por outro lado, as tecnologias de alta mobilidade (tablets e smatphones) continuaram vendo um forte crescimento de 80%, representando 111 milhões de dispositivos. Cifras que não devem mudar muito em 2014. Quanto à categoria de PCs, está previsto que em 2014 continuem diminuindo (8%); ao contrário dos smartphones/tablets que crescerão 28%, para 142 milhões de unidades.
Este movimento do PC para outros tipos de dispositivos continuará mudando o paradigma do que o ecossistema considera dispositivos essenciais de computação, onde a criação e uso do conteúdo não necessariamente se centralizarão no dispositivo; mas que isso se incluirá além do sistema operacional do dispositivo e tomará forma no contexto do aplicativo e do conteúdo.
2014 será um ano de maior expansão dos diferentes provedores de conteúdo na América Latina, o que os impulsionará a modificar seus modelos de negócios para determinar o conteúdo ideal para fornecer preço e custo, bem como para forjar alianças, como os tradicionais modelos de hardware nestes diversos e rentáveis ecossistemas novos.

10. Os projetos relacionados à educação e à geração “Y” irão impulsionar o crescimento dos dispositivos computacionais na América Latina
Durante a última década, a sociedade da informação na América Latina se beneficiou de inúmeras iniciativas, tanto do setor público como privado, destinadas a ampliar a base instalada de PC e contribuir para fechar a brecha digital. Neste sentido, houve maior diversificação destes meganegócios, onde os PCs de negócios deram lugar aos tablets, notebooks e netbooks nos projetos governamentais e educacionais em geral.
A diversificação destes dispositivos, não só está atraindo os usuários finais na região por causa dos aplicativos versáteis, mas também para os investidores (governos) devido a um custo mais baixo para implantar megaprojetos. Isto nos leva a pensar que se os pontos de preço da tabela continuarem diminuindo em comparação com os preços médios atuais dos netbooks, sua absorção irá acelerar significativamente. A IDC espera que em 2014 tenhamos 1,3 tablets vendidos para cada notebook na América Latina. Mais de 52% dos tablets vendidos em 2014 estarão abaixo de US$ 249, preço que será similar para um laptop de baixo custo.
A América Latina tem sido o lar de muitos megaprojetos para a educação nos últimos anos, sendo a Argentina e Venezuela os campeões claros neste caso, com a entrega de milhões de netbooks aos alunos em um período relativamente curto. Enquanto isso, o governo federal mexicano anunciou que 4,1 milhões de PCs serão implantados em cinco anos.

SOBRE O ESTUDO DE PREVISÕES 2014
Este estudo é parte de uma série de publicações no mundo todo que a IDC realiza todos os anos, em que seus principais analistas compartilham sua opinião sobre as perspectivas para o ano novo sobre os mercados de TI e Telecomunicações. Com a colaboração de mais de 100 analistas da América Latina, este documento analisa os eventos que se espera que transformem o mercado durante 2014 sob a forma de uma lista com “As 10 previsões”. Para obter mais informações, acesse: www.idclatin.com/predictions

Compartilhar

TI x Negócios na adoção do Big Data

A adoção de soluções de Big Data não é exatamente uma novidade no Brasil. É fato que um volume de empresas cada vez maior enxerga o enorme potencial dessa tecnologia e opta por implementá-la para aprimorar processos, expandir negócios, ou até mesmo imprimir novos ritmos em suas operações.

Embora mudanças processuais sejam previstas com a adoção dessa plataforma, transformações organizacionais, até então inesperadas, também estão surgindo. E junto com elas chegam as dúvidas e a necessidade de novos posicionamentos.

Um dos desafios mais emblemáticos, impulsionado pela adoção do Big Data, é o embate entre as áreas de TI e Negócios. Esses profissionais vivenciam discussões diárias, que vão desde a melhor tecnologia a ser adquirida até a discordância a respeito de quem tem o domínio sobre os imensos volumes de dados das empresa.

Apesar de não existir uma única receita para o uso estratégico do Big Data, é impossível responder a questão sobre a propriedade de dados – e a impossibilidade parte de um princípio simples: dados, estruturados ou não, são ativos de toda uma companhia e não apenas informação privilegiada de um determinado setor ou colaborador.

Seria difícil, para não dizer improvável, que essa conclusão fosse diferente, já que o Big Data oferece aos profissionais a oportunidade de tornarem-se usuários self-service. Isso significa garantir a um funcionário da empresa a liberdade de criar análises a qualquer momento e a partir de suas necessidades. Não há mais motivos para longas esperas ou processos burocráticos; as respostas estão em poucos cliques e à distância de segundos.

Atualmente, as fontes de coleta de informações são praticamente ilimitadas, assim como ininterruptas. Por qual razão então esses dados deveriam manter-se restritos a apenas uma área? Podemos ir além: por que não utilizar plataformas móveis para criar um processo de comunicação colaborativa, em que as informações de interesse da empresa são difundidas em tempo real e até mesmo de forma interativa?

Para que tudo isso seja viável, porém, os investimentos em capacitação são fundamentais. Treinar e orientar profissionais quanto aos processos internos da companhia e ao uso de uma tecnologia dessa magnitude é tão relevante quanto a decisão da empresa em adotar uma plataforma de negócios como o Big Data. O caminho, neste caso, pode até parecer mais longo, mas os resultados valem o esforço.

Por Marcos Pichatelli – Gerente de Produtos de High-Performance Analytics do SAS, líder de mercado em soluções e serviços de Business Analytics e o maior fornecedor independente no mercado de Business Intelligence.

Compartilhar

Gartner: 64% das empresas já investiram ou planejam investir em Big Data, em 2013

De acordo com o Gartner, líder mundial em pesquisa e aconselhamento sobre tecnologia, os investimentos globais em Big Data continuam a crescer, em 2013. Pesquisa revela que 64% das empresas ouvidas estão investindo ou planejam investir nestas tecnologias e, menos de 8% já as implantaram. Estas tendências e o mercado de Big Data no Brasil e na América Latina serão analisados no Symposium ITxpo, que acontece entre os dias 4 e 7 de novembro, no Sheraton São Paulo WTC Hotel.

Um estudo realizado pelo Gartner, em junho de 2013, com 720 organizações ao redor do mundo, examinou os planos de investimento em tecnologia das companhias em Big Data, estágios da adoção, problemas dos negócios solucionados, dados, tecnologia e desafios. “O hype sobre Big Data continua conduzindo o aumento nos investimentos, mas há solidez por trás disso. Esta pesquisa destaca empresas de vários setores e lugares enxergando oportunidades e o real valor de negócios”, explica Donald Feinberg, vice-presidente de pesquisa e analista distinto do Gartner.

Neste ano, os setores que mais investem em Big Data são mídias e comunicações, bancos e serviços. O levantamento revela que 39% das empresas de mídias/comunicações disseram que já investiram em Big Data, seguidas por 34% dos bancos e 32% das empresas de serviços. Os investimentos planejados durante os próximos dois anos são mais altos para os setores de transporte (50%), saúde (41%) e seguros (40%). Porém, todos os segmentos mostram investimentos nesta tecnologia.

Regionalmente, a América do Norte continua a liderar os investimentos, com 38% das empresas dizendo que investiram na tecnologia específica para o desafio de Big Data. Na região da Ásia/Pacífico, 45% das companhias indicam que planejam investir dentro dos próximos dois anos. De acordo com a experiência do Gartner, América Latina, Europa, Oriente Médio e África (EMEA) sempre ficam para trás na adoção das tecnologias, e com o Big Data não será diferente.

“Independente da localidade, os investimentos têm diferentes estágios. Começam com a aquisição de conhecimento, passam para a definição da estratégia, seguido por um experimento ou teste de conceito. Após a primeira fase ser bem sucedida, a implantação acontece e o investimento aumenta. No passar do tempo, a operação de negócios começa a confiar nas implementações e os investimentos passam a administrar os sistemas”, explica Feinberg.

Para Big Data, 2013 é o ano da experimentação e das primeiras implantações. Menos de 8% dos participantes da pesquisa indicam que as empresas já implantaram soluções de Big Data, 20% estão em fase piloto/experimentação, 18% estão desenvolvendo a estratégia e 19% estão obtendo conhecimento. As demais companhias não têm planos.
Há uma ampla gama de problemas de negócios a serem resolvidos usando Big Data. No topo do ranking dos estudos do Gartner de 2012 e 2013, estão a eficiência de processos e a experiência do cliente. Na pesquisa deste ano, 55% das empresas afirmam que já estão conseguindo melhorar a experiência do cliente usando Big Data, enquanto 49% usam para a eficiência de processos.

Algumas atividades de Big Data somam às atuais práticas de negócios, como, por exemplo, entender melhor as necessidades dos clientes, aumentar a eficiência de processos, reduzir ainda mais os custos ou detectar melhor os riscos. Algumas empresas estão se engajando em atividades mais “inovadoras”: 42% estão desenvolvendo novos produtos e modelos de negócios e 23% estão lucrando diretamente com a informação. O Gartner acredita que as grandes oportunidades estão nestas áreas.

Algumas atividades de Big Data somam às atuais práticas de negócios, como, por exemplo, entender melhor as necessidades dos clientes, aumentar a eficiência de processos, reduzir ainda mais os custos ou detectar melhor os riscos. Algumas empresas estão se engajando em atividades mais “inovadoras”: 42% estão desenvolvendo novos produtos e modelos de negócios e 23% estão lucrando diretamente com a informação. O Gartner acredita que as grandes oportunidades estão nestas áreas. O cenário e o futuro de Big Data e Analíticos, até 2020, serão apresentados por Donald Feinberg durante o Gartner Symposium ITxpo 2013.

Na ocasião, os participantes contarão com as palestras de Max Gehringer, administrador, autor e apresentador, no dia 7/11 (quinta-feira), às 16h30, sobre o desafio pessoal do profissional brasileiro, e de Silvio Meira, engenheiro, autor e PhD em Ciências da Computação, no dia 6/11 (terça-feira), às 17h, sobre o papel da inovação no Brasil.

Compartilhar

IBM oferece download gratuito de software de Big Data

A IBM Brasil oferecerá pelo período de um ano download gratuito do software Infosphere BigInsights da plataforma IBM para Big Data, alinhado à tecnologia Hadoop (que permite o processamento distribuído de grandes conjuntos de dados em cluster de servidores para uso geral) e aos recursos empresariais, incluindo visualização e exploração, análises avançadas, além de segurança e administração.

Esta plataforma de software foi a mesma utilizada no projeto Ei!, que analisou, durante a Copa das Confederações, os comentários postados no Twitter de milhões de torcedores da seleção brasileira. A ferramenta gerou estatísticas e gráficos que ilustraram o que o torcedor pensava da seleção brasileira e de seus jogadores.

O InfoSphere BigInsights Quick Start Edition,edição mais recente da família, pode ser baixado de maneira rápida e não há capacidade de dados ou limitação de tempo, o que permite a utilização nas análises de grandes volumes de dados, para diferentes objetivos e maneiras.

Os interessados podem fazer o download* na página do developerWorks, portal gratuito da IBM que concentra recursos técnicos para desenvolvedores, estudantes e profissionais de TI de todo o mundo – http://www.ibm.com/developerworks/br/

*A edição gratuita não inclui o serviço de suporte ao software, disponível somente na versão paga

Compartilhar

Gartner:42% dos líderes de TI planejam investir em Big Data em um ano

De acordo com o Gartner, líder mundial em pesquisa e aconselhamento sobre tecnologia, o ano de 2013 será marcado pela adoção em larga escala das tecnologias de Big Data, após um período de experiências e sucessos das organizações pioneiras na implantação. Uma pesquisa global com líderes de TI mostrou que 42% dos participantes planejam investir nestas tecnologias dentro de um ano. Na Conferência Gartner Infraestrutura de TI, Operações e Data Center, que acontece nos dias 9 e 10 de abril, será apresentada uma sessão sobre Big Data e sua influência nos Data Centers, além dos requisitos para que os gerentes de TI analisem como poderão gerenciar dados no futuro.

“Agora, as organizações têm mais conhecimento do que é o Big Data e como ele pode transformar o negócio de novas formas. As questões chave mudaram para ‘quais são as estratégias e as habilidades necessárias’ e ‘como podemos medir e ter certeza do retorno do investimento?’. Muitas empresas ainda estão nos estágios iniciais e poucas têm pensado em uma abordagem empresarial ou, ainda, percebido o profundo impacto que Big Data terá em suas infraestruturas, organizações e indústrias”, afirma Donald Feinberg, vice-presidente e analista do Gartner, que vai conduzir a palestra “Redução do Big Data no Data Center – Que Barulho é Esse?”, durante o evento.

As empresas estão realizando suas ações de Big Data em uma paisagem tecnológica em rápida mudança, com forças que produzem e demandam novos tipos de dados e de processamento da informação. Eles se voltam ao Big Data por duas razões: necessidade e convicção. As organizações estão conscientes de que essas iniciativas são críticas, pois identificaram oportunidades de negócio óbvias e potenciais, que não podem ser atingidas com as fontes de dados, tecnologias e práticas tradicionais.

“Isto faz com que os líderes de TI e negócio se interessem em estar à frente dos concorrentes, no que se refere ao lançamento das iniciativas de Big Data. Não há com o que se preocupar: ideias e oportunidades, neste momento, são ilimitadas e algumas das maiores vêm da adoção e adaptação de ideias de outras indústrias”, diz Donald. Desta forma, será desafiador deixar de lado o hype ao avaliar tecnologias, abordagens e alternativas de projeto de Big Data.

Apesar destes desafios, o Gartner prevê que, em 2015, 20% das 1000 maiores empresas terão estabelecido um foco estratégico em infraestrutura de informação, equivalente à de gerenciamento de aplicações.

Na expectativa de oportunidades de Big Data, organizações de todos os setores estão coletando e armazenando, provisoriamente, uma quantidade crescente de dados operacionais, públicos, comerciais e sociais. No entanto, na maioria dos setores – especialmente no governo, indústria e educação – combinar estas fontes com “dados obscuros” existentes e subutilizados, como e-mails, multimídia e outros conteúdos corporativos, representa a oportunidade mais imediata de transformar empresas.

O Gartner afirma que, por meio da integração e análise de variadas fontes de dados, não apenas individualmente, as empresas conseguem atingir os mais extraordinários insights de negócios, otimização de processos e tomadas de decisão. Embora a maior parte do hype do Big Data seja sobre como lidar com o tamanho e a velocidade dos dados disponíveis, a pesquisa mostra que os ganhos serão obtidos por aqueles que percebem o sentido de ampliar a gama de fontes de dados.

Os executivos de TI e negócios regularmente dizem que a informação é um dos maiores ativos de suas empresas. E elas têm gerenciado e implantado a informação de maneira mais efetiva, mas, certamente, não com a mesma disciplina afiada da gestão que é aplicada a seus ativos materiais, financeiros ou outros intangíveis. A aplicação de modelos de avaliação à informação formal permitirá à TI e aos líderes de gestão de informação e negócios tomarem decisões mais distintas sobre a gestão da informação, enriquecimento, segurança, riscos, compras, coleta, uso, troca e venda.

As inscrições para a Conferência do Gartner podem ser feitas pelo e-mail latin.america@gartner.com, pelo site www.gartner.com/br/datacenter ou pelos telefones (11) 3074-9724 / 3073-0625. Até o dia 5 de abril, é possível obter desconto de R$ 350,00.

Compartilhar