Entrevista | Binario Cloud – A adoção da Computação em Nuvem no Brasil e seus desafios

A Binario Cloud é uma empresa do Grupo Binário, que como diz o nosso entrevistado – o CBO Luiz Fernando Souza,  nasceu de um encontro, tendo de um lado o Grupo Binário, que fez seu nome no mercado de telecom, oferecendo equipamentos e soluções para as principais operadoras de telecomunicações do Brasil. Em determinado momento, o grupo voltou seus olhos também para o mercado enterprise, quando começou a construir backbones para grandes empresas, incluindo estatais. Foi neste processo que teve a oportunidade de atuar dentro da Universidade de São Paulo – USP, num projeto de reconstrução da rede wi-fi de seu campus. Foi quando a equipe do Grupo Binário conheceu a equipe técnica de gestão de TI da USP, encabeçada na época por Cyrano Rizzo, que estavam terminando de desenvolver a nuvem da Universidade de São Paulo, um projeto inovador, que começou em 2008 e em 2012 já havia uma primeira versão no ar, suportando boa parte de todo o ambiente acadêmico da universidade.

Para se ter uma ideia, a USP chegou a ter servidores espalhados por mais de 140 locais diferentes, o que tornava a gestão deste parque extremamente complexo e oneroso. Assim, a estratégia de centralização dos recursos computacionais foi uma das mais importantes e acertadas na época, num período em que computação em nuvem era um conceito extremamente novo, com pouquíssimas empresas trabalhando com isso. Depois do sucesso da implantação da nuvem da Universidade de São Paulo, Cyrano Rizzo foi convidado pelo time do Grupo Binário para fundar a Binario Cloud.

Nosso entrevistado, Luiz Fernando Souza, chegou em seguida, assumindo o cargo de CBO – Chief Business Officer – da Binario Cloud, responsável pelo executivo operacional da empresa, com a missão de construir o negócio, avaliar mercados e segmentação. Em nosso bate-papo, o executivo fala como está o mercado de computação em nuvem no Brasil, os desafios para expansão e o que podemos esperar do futuro. Confira!

1. Como está sendo a adoção de computação em nuvem no mercado brasileiro?

No Brasil a gente tem uma distorção relevante do que é Cloud Computing. O primeiro impedimento é que as pessoas entendem Cloud Computing como algo que está levando o data center para fora da minha casa, o que acaba gerando pelo menos dois problemas: Primeiro; nem todo data center entrega solução de computação em nuvem. Segundo; nuvem não é estar fora de casa. Existe um órgão que regulamenta o que é cloud computing, o National Institute of Standards and Technology (NIST) dos Estados Unidos, que determina quais as características para uma solução ser considerada computação em nuvem. Em vias gerais, ele vai dizer o seguinte: em computação em nuvem, define-se por software os recursos de computação, de armazenamento e de rede, ou seja, basicamente, nuvem é uma evolução do conceito de virtualização, que nasceu para permitir que um servidor físico pudesse ser transformado em vários servidores virtuais. Já a nuvem basicamente afirma que você orquestre esses recursos virtuais de forma dinâmica, ou seja, você tem autonomia e flexibilidade para mexer nesses recursos e alocá-los de acordo com a necessidade de cada um dos workloads.

Com a definição em cima em mente, podemos entender um pouco do panorama geral da adoção da computação em nuvem no Brasil. Há bastante resistência, não necessariamente sobre o ir ou não ir, usar ou não usar uma solução de nuvem, porque o profissional de TI em si já entendeu que precisa de ferramentas de computação em nuvem, até para ter um uso mais racional dos recursos de computação, ou seja, parar de comprar coisa e deixar parado, pois a grande maioria das empresas compra máquinas enormes, mas usa apenas uma parte dos recursos, então esta consciência o mercado já possui. Os desafios que a gente encontra na verdade é o tirar de dentro de casa, às vezes por resistência, às vezes por problemas reais, dos quais podemos citar, por exemplo, a conectividade. Há lugares que não possuem conectividade boa, enquanto outros teriam que pagar mais caro para uma conectividade estável. A própria implantação, é um processo, não é uma hora pra outra. Assim, o que a gente vê é que o mercado quer, as pessoas entendem os benefícios, mas alguns conceitos acabam dificultando a decisão e elaboração do mapa, do caminho, o que a gente chama de jornada para a nuvem, e além disso, saber como é um grande problema, porque você tem, principalmente em grandes instituições e empresas mais antigas, uma estrutura legada muito grande, então é importante saber como tratar cada uma dessas estruturas legadas. O que fazer, por exemplo, com um cara que tá rodando um sistema operacional ou uma aplicação que roda desde 1960, 1980? Não precisamos nem ir tão longe, se tiver uma aplicação de 2000, para trazer para a tecnologia de hoje já uma situação extremamente complexa.

Estes então são os principais desafios, nos quais nós procuramos focar bastante. Eu acredito que um dos pontos positivos que a Binario Cloud acabou herdando foi o fato do nosso time não apenas ter construído a nuvem da USP, mas ter feito a USP usar esta nuvem, então todo este processo de migrar a estrutura legada para um ambiente novo, a partir de um ecossistema extremamente complexo e grande, maior do que muita empresa, inclusive a nível global, a gente acabou adquirindo uma certa bagagem que é difícil de encontrar no mercado. Então quando a gente para conversar com empresas sobre como ir para a nuvem, sobre o que usar de nuvem, assim por diante, a gente começa por aí, ou seja, o que você tem, onde você está, o que você já testou, o que você conhece, quer dizer, tentamos obter uma fotografia da situação atual.

2. A questão da segurança ainda é uma resistência por parte das empresas quanto a adoção da computação em nuvem?

A segurança é uma barreira bem menor hoje em dia. A dificuldade no passado era as empresas entenderem a idoneidade dos prestadores de serviços, assim como entender também questões como o compartilhamento de hardware num ecossistema de nuvem. Por uma feliz coincidência, um dos projetos que estimulou este upgrade no quesito segurança, que depois a Amazon transformou em VPC – Virtual Private Cloud, foi um projeto que nasceu dentro da Universidade de São Paulo, junto com a comunidade do Apache, que construíram um formato estruturado para isolar completamente sessões dentro de um ambiente de virtualização e de computação. Assim o mercado entendeu que independente de estar compartilhando um nuvem, um serviço não enxerga o outro, uma rede não interfere na outra.

O que acontece hoje é que na verdade, a nível de segurança, nós conseguimos inverter o jogo. A realidade é que quando se fala em usar ambiente em nuvem, hoje em dia há um nível de barreira, no que diz respeito a segurança física de dados infinitamente maior do que se tem em qualquer data center de qualquer empresa. Fora isso, a nuvem também provê um nível de segurança lógica muito maior.

Porém, é importante pontuar que as falhas no geral não estão relacionadas a um problema de infraestrutura, mas na grande maioria das vezes é um problema operacional, no próprio usuário, que instala coisa que não sabe, confira firewall errado, abre porta que não deve. Por isso a gente procura também conscientizar tanto clientes quanto o mercado no geral, educando a respeito de boas práticas relacionadas à segurança.

3. Quais os segmentos que mais estão interessados em migrar para a computação em nuvem no mercado brasileiro?

Antes de responder isso, é importante esclarecer que é possível o uso de cloud computing direta ou indiretamente. Quando falamos num nível mais básico, que seria a infraestrutura, ou seja, servidores, sistema operacional, etc., mas existe uma camada muito grande que já está disseminada em todos os segmentos que contempla os Software as a Service (SaaS). Ou seja, qualquer empresa, em algum momento, vai acabar adotando um software que trabalha na nuvem, seja um CRM, um sistema de ponto, um sistema de folha de pagamento e outras aplicações, o que significa que indiretamente a empresa está consumindo uma solução de computação em nuvem, muitas vezes sem perceber. Como exemplo, uma das principais soluções adotadas, principalmente por empresas novas ou pequenas, que não possuem tanto recurso de computação, são serviços de e-mail, já que uma solução de e-mail interna é muito difícil de suportar, por isso este tipo de serviço tem se tornado uma commodity.

Além disso, depois que a empresa passa esta camada, começa a se preocupar um pouco com persistência de dados. Um dos próximos passos de grande parte das empresas acaba sendo o backup, que garante uma certa segurança, a partir do momento que seus dados ainda estão em seu ambiente, porém suas cópias de segurança estão na nuvem. Mas no mercado em geral temos visto um ciclo de investimentos, entre 2010, 2015, em infraestrutura como um todo, assim, no geral, as empresas tem se encontrado num nível de reavaliar sua infraestrutura. Por um lado, temos o “cara” de TI avisando que o servidor está obsoleto, precisando ser trocado, enquanto do outro lado temos a gestão, que começa a ouvir falar cada vez mais da nuvem e seus benefícios, que é mais barato, mais seguro, etc.

Existe ainda um outro fator, que o hardware, que cada vez mais também já está mais preparado para a computação em nuvem, está tendo um custo maior, o que pesa quando uma empresa vai fazer uma cotação para renovar o seu parque tecnológico, já que a empresa acaba encontrando ou hardwares muito básicos, para pequenas empresas, que estão começando e não precisam de muitos recursos, ou aqueles que já possuem recursos até demais, focados em grandes data centers e que acabam sendo muito caros. Então, no geral, vemos segmentos como indústrias, empresas de serviço, escritórios de advocacia, instituições de ensino, instituições de saúde, como hospitais, por exemplo, que já fizeram um movimento no passado de não ter mais um data center, ou seja, alocou seus dados em algum lugar, seja através de serviços de hosting, colocation etc., e hoje também se encontram no dilema de renovar o contrato desses serviços ou partirem para a nuvem.

Outra coisa que acontece também, impulsionado pela transformação digital, os negócios precisam testar tecnologias novas, o que no modelo tradicional de computação se torna mais caro e complexo. Acabamos voltando então para os Softwares as a Service (SaaS), que acabam sendo uma solução para essas empresas realizarem seus testes com novas tecnologias. Imagina, por exemplo, um laboratório de imagens que quer testar a transmissão de exames via streaming. Certamente a melhor solução que a empresa vai encontrar será um serviço em nuvem.

4. A Binario Cloud tem algum projeto ou case no setor de saúde que possa ser citado?

Em linhas gerais as informações relacionadas aos clientes da empresa são sigilosas, porém podemos dizer é que a Binario Cloud tem ajudado alguns hospitais de São Paulo e em Belo Horizonte no que diz respeito à resiliência e persistência de dados, ou seja, segurança de dados, análise de políticas de backup, de retenção de restauração e construir mecanismos e ferramentas para que as janelas sejam cada vez mais curtas, evitando paradas de softwares, rede etc. Essa atuação entra muito com braço de serviço, pois hospitais têm muita automação e muita coisa está passando por um processo, mas ainda tem muita coisa que é antiga, mas ainda está lá. Então temos sistemas e softwares atuais, mas que ainda se comunicam com porta serial, por exemplo. Então há um processo transitório que é complexo. A Binario entra então com uma expertise analisando devices e appliances como um todo, trazendo para a realidade de computação em nuvem de forma a promover uma migração tranquila.

5. Em um dos materiais divulgados pela Binario Cloud, diz que vocês interpretam o cloud computing como uma forma consciente de usar recursos computacionais. Poderia explicar isso?

Imagina que você compra um servidor. Este equipamento pode ser utilizado ou não, e a maioria não é utilizado, principalmente no que diz respeito ao processamento, memória etc. Isso é um desperdício. Sem conta todo o fluxo de demanda, pesquisa, compra, pós compra, instalação, suporte, que geram um custo num bem que no fim não é utilizado. Além disso, você tem todo os recursos que suportam um data center, como energia, climatização, controle de umidade, enfim, uma série de controles que ou é bem feito ou não é. É neste ponto que devemos questionar a respeito do uso consciente de recursos computacionais e de TI como um todo. Nós nos preocupamos, por exemplo, quando vamos decidir qual data center físico vamos utilizar para subir uma zona, em trabalhar com data centers que tenham certificação em consumo consciente de energia.

Mas, mais do que isso, está relacionado ao consumo de hardware mesmo. Numa solução de nuvem a gente utiliza praticamente 100% de todos os componentes que compõe o hardware; processador, memória, storage, rede, placas etc., sendo assim temos pouco desperdício. O que temos é uma sobra, que é uma margem de segurança para suportar uma variação natural dos workloads. Então é este o conceito que a gente tem tentado trazer para o mercado.

6. Em relação à capacitação e preparo de profissionais para atuarem no mercado de computação em nuvem, há cursos de graduação ou especialização voltados para isso, ou a capacitação está nas mãos das empresas?

Eu diria que está nas mãos do próprio profissional em si, pois nem as empresas sabem direito o que estimular e no mercado em si você não vai ter cursos específicos. Temos as engenharias, ciências e coisas neste sentido, mas especifico para computação em nuvem não. Os provedores de solução em nuvem são um grande problema, porque cada um escreve na sua própria linguagem, cada um constrói a sua própria solução, cada um tem sua própria ferramenta e sua forma de trabalhar. Isso gera um problema, pois se você tem um profissional que é especialista no A, quando ele for pro B ele até tende a ter um pouco mais de condições do que alguém que está começando do zero, mas ainda assim, é um novo aprendizado.

Em vias gerais, o que o mercado tem estimulado, e é o que a gente estimula, para o profissional de TI é ele entender a camada mais baixa, além da virtualização. Entender sobre Hipervisor, os conceitos básicos, pois assim ele terá mais flexibilidade para trabalhar com algo que o mercado sonha, que é o multicloud.

7. Para finalizar, qual é o próximo passo da computação em nuvem?

Tem alguns conceitos, que apesar do mercado tentar empurrar goela abaixo, eles são necessários, mas ainda são difíceis de encontrar. Um conceito, meio deturbado, mas altamente importante, é o Edge cloud, que basicamente é você ter ferramentas de computação em nuvem mais próximas dos usuários, para que os mecanismos todos que nós temos hoje, como IoT, automação e tudo mais consigam processar coisas com menor latência. A grande maioria das aplicações, mesmo aplicações novas, aplicações web e tudo mais, têm problema de latência. Se você coloca uma aplicação no ar, com o front-end na China e o Back-end nos EUA, você vai entregar uma experiência ruim para o usuário. Ok, isso o mercado já faz, coloca o front-end e o back-end juntos em um banco único. Mas e o usuário que está longe, como é que você entrega pra ele?

A evolução acontece já há alguma tempo. A gente vê cache, a gente vê CDN, vê coisas acontecendo, só que isso são pra ferramentas estáticas. Então, essas ferramentas que eram para conteúdos estáticas, hoje começam a ter capacidade de processamento. Isso tende a fazer que a demanda por automação possa ser atendida com maior eficiência. Essa é uma das grandes coisas que estão por vir.

A nossa expectativa, e é para o que a gente trabalha, é que a gente entregue compunção em nuvem como a gente entrega um tomada. Este prédio aqui pode ter uma solução em nuvem funcionando lá embaixo e qualquer um que alugue já possa sair utilizando. Este conceito na verdade é o nosso princípio, foi pra isso que nasceu a Binario Cloud.


Publicidade

Deixe um comentário

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.