Seção: Tutoriais

 

 
Data Center I: Contextualização

 

Segundo Veras (2012), o computador de grande porte, ou Mainframe, era a máquina que prometia centralizar todo o processamento de dados das empresas. A IBM criou a possibilidade de várias CPUs trabalharem como uma só, antecipando o conceito de virtualização. A virtualização possibilitou a abstração e o mapeamento de memória real e virtual através do conceito de hypervisor, que permite que um único hardware rode diferentes sistemas operacionais em uma camada de software (Veras, 2012).

 

De acordo com Tanebaum (2011), a tendência era a mudança dos PCs (Personal Computers) para os Mainframes, e outras inovações estavam surgindo como a LAN (Local Area Network), que comunicava a Estação de Trabalho aos PCs. A evolução dos servidores que permitiam que vários usuários acessassem os mesmos arquivos simultaneamente e garantido a integridade dos mesmos, de acordo com Veras (2012).

 

Em 1990, surgiu a Word Wide Web (WWW), que foi a alternativa à rede privada, onde as companhias comunicavam-se através dela. A centralização do gerenciamento e processamento, novamente, passou a ser uma necessidade à nova realidade de aumento de utilização dos meios de comunicação e ao espalhamento geográfico dos usuários. A utilização de protocolos padrões, aumento do poder de processamento, ocasionou o crescimento explosivo da internet, então o fenômeno de centralização trouxe o novo conceito de Data Center, baseada em tecnologias padrões.

 

De acordo com Veras (2012), as modificações na arquitetura de aplicações em recursos de hardware, como o uso de servidores Blades, composta por chassi e lâminas de servidores, estes servidores em Racks em processadores x86 com tecnologia virtualizada, consolidaram o ambiente de Data Center e o aumento de oferta de Banda. O conceito de (TI verde), criou a necessidade de reduzir o consumo de energia e refrigeração e a utilização de matérias que não degradem o meio ambiente,

 

 

Imprima esta página

Adicione aos Favoritos Comunique erros