AWS: Nuvem é habilitador para Inteligência Artificial

nuvem e Inteligência Artificial

A nuvem foi o habilitador para chegarmos a esse momento da Inteligência Artificial, de acordo com Cleber Morais, diretor geral da AWS no Brasil. Em entrevista ao IT Forum na edição do Rio de Janeiro do Cloud Experience, o executivo enxerga, hoje, a IA com modelos divulgados de maneira mais ampla.

A IA, diz ele, tem foundation models que podem ser treinados para abstrair dados. Por exemplo, um escritório de advocacia pode colocar todos os seus processos dentro da base de dados para extrair informações como quais foram os processos de sucesso, em quais regiões, com quais juízes.

“Mas, enxergamos a necessidade de ter seu próprio dado. Imagine se você coloca esses dados abertos, sendo essas informações uma propriedade intelectual e um diferencial competitivo próprio. Você tem que ter proteção e a propriedade intelectual do seu dado para o seu negócio. E precisa rodar isso em um modelo de custo competitivo”, alerta ele.

Ainda assim, Morais afirma que foram dados os três primeiros passos de uma maratona. A IA já é usada pela Amazon em diferentes áreas, como Alexa, nos Centros de Distribuição, entre outros e, agora, começam a levar a tecnologia para uma base maior de forma aberta e democrática para os clientes, de forma que eles consigam usar diferentes foundation models.

Leia mais: Como a Amazon usa aprendizado de máquina para agilizar a listagem de produtos

Um dos caminhos da AWS foi desenvolver chips para IA generativa. “O chip ajuda que o custo seja mais acessível. É um hardware de fabricação nossa e usado em nossos data centers. A gente já tem o serviço atrelado: que são os chips com capacidade de treinar modelos”, diz Morais.

O evento também foi palco do lançamento do Programa re/start, focado em pessoas que não estão no mercado de tecnologia, têm outra formação e querem se recapacitar. O foco da AWS é trazer para o ambiente expertises diferentes para engajar e colocar novos profissionais no mercado.

“É um programa global. Na AWS, trabalhamos com dois grandes focos: o primeiro é trabalhar com quem já tem uma base mais técnica (tanto em universidades quanto dentro de clientes). O re/start é quase que o recomeço profissional das pessoas que estão em uma área para aprender a usar seus conhecimentos na área, com a capacitação técnica para desenvolver uma startup, por exemplo”, diz o executivo.

Apesar de não ter uma meta específica para o re/start, Morais afirma que a AWS deseja treinar 29 milhões de pessoas até 2025 no mundo, independente do programa.

Cases da AWS no Brasil

O evento também contou com executivos que dividiram com o público os seus cases com a a empresa. Davis Feler, CEO da Sirius Software, contou como o Serverless ajudou a empresa a otimizar a plataforma TotalHub.

“Nos últimos 10 anos, investimos na plataforma TotalHub. A plataforma veio para simplificar automação de processos. Os três principais produtos são: TotalDocs (integração de processos e produção de documentos), TotalBot (comunicação omnichannel e automação ode processos) e TotalSign (consolidação de negócios com conformidade internacional)”, explicou ele.

Segundo ele, com a arquitetura inicial, havia um alto custo e pouca disponibilidade. Mas, com o Severless, houve redução de custos com armazenamento em até sete vezes se comparado ao armazenamento antigo em EBS.

Além disso, o uso de processos Serverless proporcionou maior rapidez na recuperação das aplicações, reduzindo processos manuais em até 10x e a redução de custos obtida com as alterações na arquitetura permitiu dobrar os investimentos em segurança.

Bruno Nunes, CTO da Base39, contou que no início da empresa, em 2019, a escassez de profissionais era gigante. “Era muito caro, a empresas disputavam os profissionais e precisássemos construir algo com a confiança de nível de cliente que temos hoje. E precisávamos lançar rápido para otimizar investimento.”

Em um primeiro momento, a startup usou Kubernets e um dos principais desafios era a curva de aprendizagem. Muito tempo era gasto em treinamentos e, ao mudar para o AWS Lambda (serviço de computação sem servidor e orientado a eventos para execução de códigos), ficou mais fácil explicar concorrência, funções, quais as estratégias, entre outros.

Como resultado, diz ele, o tempo de resposta das APIs foi até 50% menor. “Porque ficou muito mais fácil identificar o nosso gargalo. Não foi apenas a tecnologia que mudou”, revela ele. O custo de infraestrutura diminuiu 84% e 40% do time indicou a ferramenta como o principal motivador para trabalhar com a empresa.

“Temos um resultado em relação ao custo das pessoas trabalhando. Em desenvolvimento, pegamos uma feature dos sistemas e identificamos que é 75% menor o investimento para fazer o desenvolvimento inicial. Sobre manutenção também é um ponto importante, se eu começo a crescer, quer dizer que a manutenção também aumentará e teremos que contratar mais gente, se tornando uma bola de neve. Com o Serveless, a diminuição de manutenção é de 87% a 100%”, promete ele.

Por fim, Felipe Amaro, gerente de engenharia de dados da OLX Brasil, apresentou o case de data services. Na arquitetura antiga, quando o processo começou a crescer rápido demais, “ficou como uma panela de pressão: uma hora ia explodir, porque tudo rodava apenas em um lugar. Tudo o que estava ali dentro era uma cópia do Data Lake – se falhasse, seria tudo perdido.”

A empresa, então, começou do zero. Com a ajuda da AWS, ganharam independência para os pipelines. Com isso, reduziram o custo em $ 40 mil por mês e saíram de quatro incidentes críticos por semana para um a cada dois meses.

Em entrevista ao IT Forum, Rodrigo Veiga, diretor de engenharia de software da OLX, explicou que a implementação durou cerca de um ano, para garantir que tudo funcionaria. “Uma parte do time focou em entender o novo processo e como ganhar tração e a outra parte ficou de ‘bombeiro’ para garantir que nada explodiria. Foi quase um ano de desenvolvimento, testes e ajustes. Viramos a plataforma tem aproximadamente dois anos.”

“Como a gente fala de uma arquitetura de dados, não são aplicações para usuários, a garantia da qualidade do dado era super importante na migração. A gente tinha que garantir que tinha o mesmo resultado (informações financeiras, métricas) como no antigo”, frisa ele.

Sobre IA, o executivo afirma que ter arrumado a casa foi útil e necessário porque, para fazer os modelos, precisa de dados. Ou seja, se a OLX quisesse ter informações em tempo real, era preciso fazer a implementação. “Nós já temos Machine Learning sendo usada em cases como fraudes, descontos de assinaturas, recomendação para campanha de marketing, precificador, entre outros.”

A IA generativa, afirma ele, é um próximo passo para evoluir a experiência do uso para ser mais conversacional. A plataforma poderá responder mais em um formato de conversa. Por exemplo: um consumidor entrar na OLX e dizer características de seu dia a dia e como gostaria de um carro para entender qual seria a melhor opção de compra.

“Todo mundo que trabalha com dados está sempre muito preocupado como resolver determinados problemas e foca em um negócio. A gente conseguiu mudar a estrutura para estar 100% preparado em disaster recovery. Redesenhar a estrutura permitiu ficar 100% tranquilo e nos deu condições de onde ajustar caso tenha algum contexto específico que precise investir tempo”, resume Veiga.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!