EXCLUSIVO: AWS anuncia funcionalidades no Bedrock com foco em eficiência e diminuição de custo

Dra. Sherry Marcus, diretora de Amazon Bedrock Science na AWS

A AWS tem como estratégia ser capaz de oferecer aos seus clientes opções de modelos para que sejam capazes de executar seus próprios aplicativos de IA generativa no Bedrock (serviço gerenciado com opções de modelos de base de diferentes empresas de IA), de acordo com a Dra. Sherry Marcus, diretora de Amazon Bedrock Science na AWS.

Nessa jornada, a empresa acaba de lançar atualizações no Amazon Bedrock que permitem que os clientes executem seus próprios modelos totalmente gerenciados na ferramenta, simplificam a localização do melhor modelo para seu caso de uso, facilitam a aplicação de proteções a aplicativos generativos de IA e oferecem ainda mais opções de modelos.

“O novo embedding de texto do Titan foi projetado para ser capaz de reduzir os custos de armazenamento e computação para os clientes, mantendo uma precisão muito alta. E a razão pela qual isso é importante é que os clientes nos dizem que querem pagar menos em custos de armazenamento e computação, mas manter serviço premium. E isso, obviamente, se alinha com a estratégia básica de tornar-se um serviço mais produtivo”, exemplificaa a Dra. Sherry.

A empresa também anunciou o gerador de imagens Amazon Titan. A nova funcionalidade, diz a executiva, ajuda em diversos setores, como publicidade e entretenimento, a gerar imagens de alta qualidade ou aprimorá-las usando um prompt de texto.

Dra. Sherry destaca que o gerador de imagens aplica uma marca d’água invisível a todas as imagens criadas para reduzir a propagação da desinformação. A empresa, inclusive, anunciou uma nova API de marca d’água em versão beta para a verificação da existência dessas marcas para ajudar os clientes a confirmar se a imagem foi realmente fruto da ferramenta.

Leia também: AWS, Dell, Oracle e outros: as parcerias da Nvidia para reforçar sua estratégia de IA

“Conforme essas imagens são produzidas em todo o mercado, acreditamos que este será o mecanismo padrão para ser capaz de autenticar imagens que saem do sistema básico. Um dos pilares que a AWS tem é a segurança. Então este é mais um exemplo de que a AWS tem um forte compromisso com a segurança e os novos desafios enfrentados pela insegurança e desinformação com a IA generativa”, frisa ela.

Ainda dentro do universo de IA responsável, a AWS anunciou a disponibilidade geral do Guardrails for Amazon Bedrock, que ajuda os clientes a bloquear até 85% de conteúdo prejudicial de IA generativa.

A ferramenta promete oferecer proteções integradas e personalizadas em uma única oferta e funciona com todos os modelos de linguagem de grande porte (LLMs) no Amazon Bedrock, bem como com modelos ajustados. Para criar uma proteção, os clientes fornecem uma descrição em linguagem natural definindo os tópicos negados dentro do contexto de sua aplicação. Os clientes também podem configurar limites para filtrar áreas como discurso de ódio, insultos, linguagem sexualizada, injeção imediata e violência, bem como filtros para remover qualquer informação pessoal e sensível, palavrões ou palavras específicas bloqueadas.

Casos de uso com IA generativa com AWS Bedrock

De acordo com a especialista, um dos maiores casos de uso da IA generativa, até agora, é no desenvolvimento de software. Os desenvolvedores estão usando a tecnologia para consultar um pedaço de código ou fazer uma pergunta sobre como escrever um pedaço de código.

Outros exemplos são os chatbots, usados, por exemplo, por companhias aéreas, agências de viagens ou até centros de atendimento ao cliente, para que eles possam fazer perguntas e ser respondidos prontamente.

A executiva dá alguns exemplos de usos no Brasil com o Amazon Bedrock. Em um deles, o Grupo Bravante (empresa de robótica especializada nas indústrias, naval, portuária e de óleo e gás) usa a IA generativa para analisar documentos que, muitas vezes, estão dispersos e em diferentes formatos, para identificar a localização exata dos dutos que devem ser removidos.

“Isso reduz a carga dos engenheiros topógrafos, economizando muitas horas e aumentando a produtividade. Em segundo lugar está a Gimba, responsável pela cadeia de abastecimento de 300 das 500 maiores empresas no Brasil. A empresa substituiu o processo manual de inserção e atualização de produtos no catálogo pelo Amazon Bedrock, reduzindo em 84% o tempo gasto no cadastro de produtos, de 13 minutos para dois minutos por item”, divide ela.

O último exemplo é a Indra, que desenvolveu uma plataforma que permite aos clientes fazer upload de suas faturas e, com base em análises, obteve estimativas de custos. A empresa utilizou o Amazon Textract para extrair dados dos documentos em diversos formatos e retornar uma série de dados com alta precisão.

Os dados são inseridos na base da Amazon para identificar e extrair as informações em vários processos. Quando estiver em pleno funcionamento, o tempo de Input e análise de dados será bem menor do que esse que é o atual e muito manual.

“Existem novos recursos e funções saindo o tempo todo, diariamente, das indústrias. Acho que algumas das maiores mudanças no ano passado ocorreram no uso de fluxos de trabalho, porque os clientes percebem que os resultados do modelo muitas vezes não são suficientes para atingir seus objetivos de negócios. Por exemplo, um modelo pode não ser atualizado, então, você precisa de registro para poder aumentar o modelo para fazer o necessário”, pondera Dra. Sherryl.

Por fim, Dra. Sherryl, que está chegando há 25 anos de estrada em Inteligência Artificial e dados, diz acreditar que a IA generativa é transformacional, principalmente para diminuir o tempo das pessoas para tarefas básicas, como pesquisas coisas.

“Você pode ir muito mais rápido e fazer muito mais apenas no nível pessoal. E, como resultado, isso influenciará todos os aplicativos, quer você esteja em um site de varejo, ou buscando coisas. Talvez você não saiba como usar um computador, mas agora você pode perguntar em uma linguagem natural e obter essas respostas”, elogia a executiva.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!