top of page

A evolução do Big Data

Neste post, abordo um pouco sobre a evolução cronológica do Big Data


foto ilustrativa formando a palavra big data

Primeira Geração: Mainframe (Anos 70 à 80)

Computação centralizada e monolítica de implementação relativamente simples. Poucas empresas têm acesso a computação, devido ao alto custo principalmente. Do ponto de vista de desenvolvimento, os programadores são orientados a eficiência e sabem da importância ($) de otimizar o uso de recursos.

Segunda Geração: Client Server (Anos 90 à 2010)

Terceira Geração: Cloud (Anos 2010 - até então)




Com o time-to-market cada vez mais agressivo e as necessidades de tomada de decisões real time, a TI tradicional passou a não atender mais as demandas de negócios. Devido à agilidade requerida, este é o principal ponto que impacta negativamente a segunda geração da computação. Precisamos eliminar a burocracia e os serviços operacionais, transformando a TI em uma área estratégica para as empresas, andando à frente do time-to-market, posicionando inovações que transformem os negócios e aumentem as oportunidades.


A nova arquitetura em nuvem integra os conceitos de dados operacionais e analíticos, em ambientes geograficamente distribuídos. Com capacidades elásticas on-demand, possibilitando startups como Easy Taxi, Uber, Airbnb, Instagram e Netflix, que construíram cases de referência, incluindo Big Data sobre a plataforma em Nuvem Amazon AWS.



Comments


Guga Gonçalves, foto.jpg

Olá, que bom ver você por aqui!

Vou te ajudar a criar estratégias e modelos de negócios digitais altamente lucrativos e escalonáveis, partindo do absoluto zero.

Atualize seu cadastro para continuar recebendo conteúdos e informações
em 2025!

Obrigado por assinar!

  • Facebook
  • Instagram
  • Youtube
  • Whatsapp
bottom of page