VIRTUALIZAÇÃO E A NOVA ARQUITETURA DA TECNOLOGIA DA INFORMAÇÃO

Tipo de documento:Redação

Área de estudo:Lingua Portuguesa

Documento 1

EPÍGRAFE Inteligência é a habilidade de se adaptar às mudanças. Stephen Hawking RESUMO O estudo a seguir é fruto do trabalho desenvolvido para a apresentação do TCC no curso de MBA em Data Center e Computação em Nuvem – Infraestrutura, Arquitetura e Armazenamento de Informações na UNIP – Universidade Paulista, O título do trabalho é Virtualização e a nova arquitetura da tecnologia da informação. O tema reflete não só minha área de atuação no mercado de trabalho mas também a grande revolução tecnológica que aconteceu com a estrutura dos data centers, afetando empresas de todos os portes de diversos segmentos da área de tecnologia e também na forma como lidamos com a informação diariamente, seja trafegando pela internet em redes sociais, acessando nosso extrato bancário através de um smartfone ou mesmo assistindo filmes e seriados ou ouvindo músicas através de serviços de streaming.

A virtualização foi peça chave para que empresas de hospedagens, data centers e as empresas de serviços de conteúdo de uma forma geral pudessem acomodar em suas estruturas de uma forma gerenciável e escalar o tráfego de dados digitais que toda essa informação começou a utilizar, bem como seu aumento que nos dias atuais acontece diariamente. Sem essa nova arquitetura os custos em hardware, espaço físico, manutenção de operação se tornariam gargalo não só financeiro mas também tecnológico limitando o avanço da distribuição da informação de uma forma geral, afetando diversos serviços quase que essenciais hoje como internet e redes de telefonia. Conceito 11 1. Aplicações e cenários 14 1. Tecnologia 17 1. Maquinas virtuais e containers 22 2.

Capítulo 2 – “Data centers” 2. Introdução A revolução causada pela possibilidade da virtualização de ambientes e do armazenamento de dados em nuvem é do ponto de vista de negócios na área de TI tão expressiva quanto a linha de montagem de Ford foi para a indústria automobilística. Essa nova forma de lidar com os dados permitiu uma ascensão meteórica do ponto de vista de negócios e mudou a forma como profissionais da área devem se preparar e mesmo a forma de trabalho, exatamente na mesma proporção da linha de montagem. Negócios que antes dependiam de espaços físicos enormes, preocupações com temperatura controlada, questões de segurança como acesso físico de pessoas, desgaste e obsolência de materiais ou mesmo a questão da possibilidade de trabalhos que antes eram feitos somente no local, serem realizados a distância, foram cruciais para o desenvolvimento de todo um novo setor.

O advento da virtualização ainda que impressionante muitas vezes não é lembrado perante outros avanços tecnológicos como internet ou smartfones ou mesmo conceitos e aplicações e conceitos ultramodernos como a chamada Internet das coisas, porque na maioria das vezes as pessoas esquecem, ou mesmo não conseguem visualizar, que todas essas formas de tecnologia dependem dos Data Centers, aplicações de virtualização e servidores armazenamento em nuvem para seu funcionamento. Assim além de uma definição e entendimento melhor dessa tecnologia, vamos ressaltar sua tremenda importância para o desenvolvimento da área de TI abordando questões técnicas e de conceito e também o estudo de casos de sucesso de empresas que utilizaram essa nova arquitetura e conceito de TI, transformando seus negócios além da criação de empresas de sucesso baseadas na virtualização e pontos de maior impacto para os profissionais do setor.

Para solucionarmos esse problema da empresa de arquitetura alguns cenários são possíveis, mas vamos considerar 3 possibilidades: a) Cada arquiteto possui o software instalado em seu próprio computador b) Existe um único computador específico no escritório que faz o trabalho mas é necessário agendar com antecedência seu uso. c) O trabalho de renderizar plantas é terceirizado para fora do escritório. Os três cenários podem resolver o problema, porém se analisarmos nenhum dos três cenários otimizam da melhor forma os recursos como por exemplo: - Tempo de processamento - Consumo de energia - Comunicação - Contratos de serviços (internos / externos) - Prazos Todos os recursos dessa lista podem ser gerenciados e acordados de forma que o projeto dos arquitetos sejam entregues a seus respectivos clientes de forma correta dentro do prazo utilizando qualquer uma das soluções.

Devemos lembrar que nesse pequeno exemplo estamos considerando somente a entrega como sendo o cenário de sucesso, sem considerar pontos como custo, organização e otimização. Agora vamos considerar um novo cenário aplicando uma ideia ainda simplista do que poderia ser feito com virtualização para resolvermos o problema dos Arquitetos: Um servidor com uma capacidade de processamento razoável possui dois sistemas instalados de forma virtualizada está disponível na rede da empresa de arquitetura, e os dois arquitetos podem acessar esse servidor através de seus notebooks e colocarem o processamento da renderização de forma simultânea. A visualização do sistema operacional ou aplicação que o usuário desejar controlar, é realizada através do VMM (Virtual Machine Monitor) ou Hypervisor, também conhecido como Monitor de Máquina Virtual.

É ele que faz o intermédio visual entre o guest e o host, ou seja, é quem define por onde o usuário deverá usar a máquina virtual. Além disso, ele também é responsável pelo controle dos recursos da máquina, tanto no sentido de desempenho quanto de espaço. Apesar de em sua maioria serem apenas usuários entusiastas que querem descobrir novos sistemas operacionais sem precisar formatar seus computadores, a virtualização oferece inúmeras vantagens que vão muito além disso. Podemos afirmar que a virtualização oferece vantagens comerciais e estratégicas para empresas que queiram adotar a tecnologia em suas aplicações. Existe uma “guerra” antiga entre os usuários de computadores a respeito de qual seria o melhor sistema operacional: Linux, Windows ou MAC? Para colocar um fim nessa guerra, sabemos que cada sistema operacional tem suas vantagens e desvantagens.

Mas já que a virtualização não se restringe a apenas uma aplicação, por que não diversificar e utilizar o que cada sistema operacional tem a oferecer de melhor. Problema comum com servidores e máquinas físicas que ao apresentar falhas no servidor físico, para que a produção possa voltar ao normal, o tempo de recuperação dependa de uma série de fatores. Ferramentas e estratégias de backup, por exemplo. É preciso uma ferramenta de imagem para o backup e outra para o sistema operacional, possivelmente mais outra para atualizar os drivers e patches, instalar softwares, para então finalmente fazer a restauração do backup. No caso de VLANs, seu funcionamento basicamente resumisse em ter uma unidade de switch e um número determinado de portas (12, 24, 48) e logicamente criar N redes distintas, algo muito utilizado em infraestruturas de TI segui mentadas, com redes distintas para produção, gerência e homologação por exemplo.

Ver imagem 2 da seção de anexos (Switch) Já no caso do particionamento, ação conhecida e bastante utilizada também por público doméstico durante instalação de um sistema operacional, onde o HD de 500GB por exemplo é divide em duas partições lógicas (C e D), sendo uma para arquivos de sistemas e outra para documentos diversos, trazendo assim um nível de segurança e acessibilidade. Sabemos agora que o conceito de virtualização e usado desde os tempos modernos da TI, porém sem a nomenclatura utilizada hoje. Vamos agora entender as principais diferenças e aplicações dos três tipos de virtualização mais utilizados em infraestrutura de TI. Conhecidos como hypervisor, são sem dúvida o mais usado entre os três, tem como líder do mercado a solução ESX (Vsphere) da Vmware, porém grandes concorrentes de ponta como XenServer (Citrix System) e Hiper-V (Microsoft).

Primeiramente, este acesso era feito apenas em LAN ou através de VPN, sendo obrigado a configuração de um cliente, como se fosse um daqueles discadores antigos de internet via ADSL Modem, mas com o surgimento do mundo Web, hoje é possível o acesso via internet, de forma simples, fácil e segura, com possibilidades até de acessos mobile através de smartfones e tablets. Seu funcionamento é bastante simples, hoje em um ambiente tradicional corporativo, a arquitetura técnica dos aplicativos é descentralizada, ou seja, cada máquina tem seu “arsenal” de aplicativos instalados localmente. veja imagem 5 nos anexos) Já no ambiente virtualizado esta arquitetura é diferente. É criado servidores onde serão centralizados todos os aplicativos do ambiente, a partir de sua tecnologia estes aplicativos são entregues, seja em LAN ou WAN de forma segura e performática, (veja imagem 6 nos anexos) Todo o processamento é realizado nos servidores onde foram instalados os aplicativos, desta forma o acesso é rápido e bastante seguro, tornando bastante possível o acesso de devices destintos, como por exemplo, o acesso de aplicativos de legado Microsoft, como Office, Dynamics e etc, em dispositivos com Android, IOS, Linux e ThinClient.

Além do Citrix XenApp (antigo metaframe) existem outros fabricantes com esta solução, como Tarantela, Go-Global e Windows Server, com features de publicação de aplicativos, porém o Citrix neste quesito é líder e contém o produto mais estável e performático. O Docker fornece uma camada adicional de abstração e automação de virtualização de nível de sistema operacional no Windows e no Linux Primeiro temos que definir o que não é Docker. Docker não é um sistema de virtualização tradicional. Enquanto em um ambiente de virtualização tradicional nós temos um S. O. completo e isolado, dentro do Docker nós temos recursos isolados que utilizando bibliotecas de kernel em comum (entre host e container), isso é possível pois o Docker utiliza como backend o nosso conhecido LXC (veja Imagem 8 em anexo) Docker é uma plataforma Open Source escrito em Go, que é uma linguagem de programação de alto desempenho desenvolvida dentro do Google, que facilita a criação e administração de ambientes isolados.

O objetivo principal de um Data Center é garantir a disponibilidade de equipamentos que rodam sistemas cruciais para o negócio de uma organização, tal como o ERP ou CRM, garantindo assim a continuidade do negócio. O Data Center deve possuir conexões (links) redundantes de diferentes fornecedores de backbone em uma estrutura de Autonomous System (AS). Esta infraestrutura tem o objetivo de garantir que os sistemas hospedados no Data Center permaneçam acessíveis, mesmo se houver falhas em uma das conexões com a Internet. Mecanismos de segurança para restringir o acesso a somente pessoas autorizadas. Estes mecanismos geralmente são compostos de câmeras de segurança, vigilância armada e sistema de identificação. Os data centers em formato de cloud estão "na moda" e os dados que trafegam na internet fugiram do controle: "Qualquer atividade de trabalho no mundo corporativo tem algo relacionado a isso.

Por exemplo, o Facebook recebe um upload de quase 2,5 bilhões de fotos por mês. Rosa, Daniel 2017) O Youtube tem 12,2 bilhões de vídeos assistidos por mês, número que praticamente dobrou a cada ano desde 2007 (Rosa, Daniel 2017). Nos Data Centers de todo mundo, estão alocadas mais de 3 milhões de contas de e-mail. Dá pra imaginar a quantidade de informação que passa por aqui todos os dias? E dá para dizer que o serviço de e-mail é só a ponta do iceberg Pela estimativa da Intel, em 2015, mais de 15 bilhões de dispositivos vão estar conectados à internet. E aí, temos duas coisas acontecendo ao mesmo tempo: demanda por mais máquinas para atender os serviços de computação na nuvem; e ainda mais computadores para atender o crescimento dos servidores dedicados.

J. S. CHEE, 2013) Os novos processadores dedicados para servidores e data centers evoluíram bastante; além de garantir pelo menos 30% mais performance do que a geração anterior, há uma nova tecnologia de segurança, na qual a criptografia dos dados – uma tarefa que consome muito tempo nos servidores – é quase 60% mais rápida. J. A TIVIT, empresa de serviços integrados de Tecnologia na América Latina, reúne alguns números que ajudam a dimensionar o tamanho e a relevância dos data centers para proteger as informações de qualquer companhia, independentemente do segmento. A TIVIT possui ao todo nove data centers em diferentes localizações na América Latina. Todos eles estão preparados para suportar os clientes de forma flexível, com altos níveis de segurança e disponibilidade, e os números que envolvem as operações são grandes.

Atualmente os data centers da companhia processam mais de 25 bilhões de transações financeiras por ano, além de gerenciar mais de 15 mil servidores e um total de 10 petabytes de dados protegidos. Essa disponibilidade total é fundamental para as empresas que utilizam o serviço. Outro ponto de atenção é a temperatura, que deve ser mantida em 25 graus. Parece fácil, mas com milhares de equipamentos ligados e gerando calor, a tarefa é bem mais árdua que em um escritório comum. Para garantir o resfriamento, apenas um dos data centers da TIVIT possui um sistema de refrigeração que equivale a 2,6 mil equipamentos de ar condicionado residenciais de 12 mil BTUs. Sem refrigeração, a temperatura no data center poderia chegar a 50º em até 15 minutos. O espaço entre o chão e o piso elevado também contribui para a refrigeração, pois permite a troca de ar frio vindo dos refrigeradores com o calor do ambiente.

A computação em nuvem tem crescido exponencialmente nos últimos anos e ganhado destaque em empresas de todos os tamanhos por conta de seus benefícios ao negócio. A chamada nuvem é um serviço que armazena, gerencia e protege dados e programas de uma empresa de maneira remota. Quando um funcionário acessa uma aplicação que está na nuvem, por exemplo, em uma fração de segundo a requisição sai do computador, acessa o data center e retorna para o computador. Mas nem toda nuvem é igual. Cada provedor de cloud computing possui uma característica, por isso a TIVIT acredita que adotar um modelo multicloud torna possível selecionar o serviço mais adequado a cada necessidade da estrutura de TI, viabilizando uma solução única. O PC torna-se apenas um chip ligado à Internet — a "grande nuvem" de computadores — sendo necessários somente os dispositivos de entrada (teclado, rato/mouse) e saída (monitor).

Empresas como Amazon, Oracle, Google, IBM e Microsoft foram as primeiras a iniciar uma grande ofensiva nessa “nuvem de informação” (information cloud), que especialistas consideram uma “nova fronteira da era digital”. Aos poucos, essa tecnologia vai deixando de ser utilizada apenas em laboratórios para ingressar nas empresas e, em breve, em computadores domésticos. O primeiro serviço na Internet a oferecer um ambiente operacional para os usuários—antigamente, disponível no endereço www. webos. DaaS - Development as a Service ou Desenvolvimento como Serviço (em português): as ferramentas de desenvolvimento tomam forma na computação em nuvem como ferramentas compartilhadas, ferramentas de desenvolvimento web-based e serviços baseados em mashup. SaaS - Software as a Service ou Software como Serviço (em português): uso de um software em regime de utilização web (p.

ex. Google Docs , Microsoft SharePoint Online). CaaS - Communication as a Service ou Comunicação como Serviço (em português): uso de uma solução de Comunicação Unificada hospedada em Data Center do provedor ou fabricante (p. A restrição ou abertura de acesso depende do processo de negócios, do tipo de informação e do nível de visão desejado. Percebemos que certas organizações não desejam que todos os usuários possam acessar e utilizar determinados recursos no seu ambiente de computação em nuvem. Segue abaixo a divisão dos diferentes tipos de implantação: Nuvem privada As nuvens privadas são aquelas construídas exclusivamente para um único usuário (uma empresa, por exemplo). Diferentemente de um data center privado virtual, a infraestrutura utilizada pertence ao usuário, e, portanto, ele possui total controle sobre como as aplicações são implementadas na nuvem.

Uma nuvem privada é, em geral, construída sobre um data center privado. Essa característica possui a vantagem de manter os níveis de serviço mesmo que haja flutuações rápidas na necessidade dos recursos. A conexão entre as nuvens pública e privada pode ser usada até mesmo em tarefas periódicas que são mais facilmente implementadas nas nuvens públicas, por exemplo. O termo computação em ondas é, em geral, utilizado quando se refere às nuvens híbridas. Vantagens A maior vantagem da computação em nuvem é a possibilidade de utilizar softwares sem que estes estejam instalados no computador. Mas há outras vantagens: Na maioria das vezes o usuário não precisa se preocupar com o sistema operacional e hardware que está usando em seu computador pessoal, podendo acessar seus dados na "nuvem computacional" independentemente disso; As atualizações dos softwares são feitas de forma automática, sem necessidade de intervenção do usuário; O trabalho corporativo e o compartilhamento de arquivos se tornam mais fáceis, uma vez que todas as informações se encontram no mesmo "lugar", ou seja, na "nuvem computacional"; Os softwares e os dados podem ser acessados em qualquer lugar, basta apenas que haja acesso à Internet, não são mais restritos ao ambiente local de computação, nem dependem da sincronização de mídias removíveis.

Segregação dos dados - Geralmente uma empresa divide um ambiente com dados de diversos clientes. Procure entender o que é feito para a separação de dados, que tipo de criptografia é segura o suficiente para o funcionamento correto da aplicação. Recuperação dos dados - O fornecedor em cloud deve saber onde estão os dados da empresa e o que acontece para recuperação de dados em caso de catástrofe. Qualquer aplicação que não replica os dados e a infraestrutura em diversas localidades está vulnerável a falha completa. Importante ter um plano de recuperação completa e um tempo estimado para tal. A maioria destes serviços não é acessível pela internet, mas oferecem funcionalidades que outros desenvolvedores podem usar em suas aplicações.

Amazon Web Services pode ser acessado usando HTTP, protocolo REST, estilo de arquitetura ou pelo protocolo SOAP. O modelo de cobrança pelos serviços é de acordo com o uso. Em junho de 2007, Amazon alega que possui mais de 180. desenvolvedores inscritos no Amazon Web Services. Joli Os: desenvolvido por Tariq Krim, o ambiente de trabalho chamado jolicloud usa tanto aplicativos em nuvem quanto aplicativos offline, baseado no ubuntu notebook remix, já tem suporte a vários navegadores como google chrome, safari, firefox, e está sendo desenvolvido para funcionar no android. YouOS: desenvolvido pela empresa WebShaka, cria um ambiente de trabalho inspirado nos sistemas operacionais modernos e utiliza a linguagem Javascript para executar as operações. Ele possui um recurso semelhante à hibernação no MS-Windows XP, em que o usuário pode salvar a área de trabalho com a configuração corrente, sair do sistema e recuperar a mesma configuração posteriormente.

Esse sistema também permite o compartilhamento de arquivos entre os usuários. Além disso, possui uma API para o desenvolvimento de novos aplicativos, sendo que já existe uma lista de mais de 700 programas disponíveis. Atualmente com o Ubuntu One é possível fazer backups, armazenamento, sincronização e compartilhamento de arquivos e vários outros serviços que a Canonical adiciona para oferecer mais opções e conforto para os usuários. IBM Smart Business: Sistema da IBM que engloba um conjunto de serviços e produtos integrados em nuvem voltados para a empresa. O portfólio incorpora sofisticada tecnologia de automação e autosserviço para tarefas tão diversas como desenvolvimento e teste de software, gerenciamento de computadores e dispositivos, e colaboração. Inclui o Servidor IBM CloudBurst server (US) com armazenamento, virtualização, redes integradas e sistemas de gerenciamento de serviço embutidos.

Dropbox: Dropbox é um sistema de armazenamento em nuvem que inicia-se gratuitamente com 2gb e conforme indica amigos o espaço para armazenamento de arquivos cresce até 50gb. Com a evolução da tecnologia, a nuvem deixou de servir apenas para guardar arquivos e hoje também abriga games, apps e softwares, que podem ser utilizados sem precisar ser baixados. Assim como qualquer outro serviço provido na web, o conteúdo da nuvem é armazenado em um servidor, que é basicamente um conjunto de HDs ligados em rede. Os data centers (prédios que abrigam os servidores) existem em todo o mundo e são verdadeiras fortalezas, com vários níveis de segurança, tanto digital quanto física A Microsoft tem 20 data centers espalhados pelo mundo, inclusive em São Paulo.

Já o Google tem 13. Servidores se comunicam com clientes (os PCs de usuários) usando portas. O acesso a programas, serviços e arquivos é remoto, através da Internet - daí a alusão à nuvem. O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas. Num sistema operacional disponível na Internet, a partir de qualquer computador e em qualquer lugar, pode-se ter acesso a informações, arquivos e programas num sistema único, independente de plataforma. O requisito mínimo é um computador compatível com os recursos disponíveis na Internet. O PC torna-se apenas um chip ligado à Internet — a "grande nuvem" de computadores — sendo necessários somente os dispositivos de entrada e saída. A interligação deles ocorre porque na implantação atual de cloud, geralmente ocorre a virtualização de servidores.

Entretanto, essa não é uma regra. É possível obter uma solução de cloud computing utilizando apenas máquinas físicas, mas não é o mais comum, nem o mais eficiente e vantajoso. Isso porque os benefícios de virtualizar são muitos. Virtualizar permite a consolidação de servidores, o que garante a redução de custos de operação de data centers e promove o upgrade de servidores. Arquitetura de Nuvem: Amazon Web Services (aws). ed. Internacional. Brasspress, 2012. VERAS, Manoel. Cloud Computing: Os 6 pilares fundamentais. ed. São Paulo. Auto Publicação, 2017. J. Anexos Anexo 1: Particionamento e VLANs Anexo 2: Switch e controle de portas Anexo 3: VMWare Anexo 4 – Arquitetua Anexo 5: Anexo 6: Anexo 7: Anexo 8: Anexo 9: Anexo 10:.

350 R$ para obter acesso e baixar trabalho pronto

Apenas no StudyBank

Modelo original

Para download