Pesquisadores da Unesp criam IA que mapeia deslizamentos no litoral norte de São Paulo

Pesquisadores da Universidade Estadual Paulista (Unesp) em São José dos Campos e do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden) desenvolveram um estudo em que utilizaram aprendizado de máquina para gerar mapas com as principais zonas de risco de deslizamentos de terra em São Sebastião, litoral norte do estado. O objetivo é prever tragédias como a ocorrida em fevereiro de 2024 na cidade, quando chuvas acima de 600mm em 24h causaram deslizamentos de terra que deixaram 65 mortos, além de casas destruídas e rodovias bloqueadas.
Entre as oito cidades afetadas, São Sebastião foi a mais afetada, somando o maior número de mortos e desabrigados. Um ano após a tragédia, os moradores da região seguem sob ameaça de deslizamentos. Muitos dos afetados ainda moram na região, inclusive na Vila Sahy, a mais afetada naquela semana.
Leia mais: Recuperação de ciberataques estoura orçamentos de PMEs em 50%
“A combinação de fatores naturais, como a presença da Serra do Mar, com pressões antrópicas, como a urbanização crescente, destacou a importância de métodos avançados de aprendizado de máquina para mapear e prever áreas suscetíveis a deslizamentos”, explica Enner Alcântara, professor do Instituto de Ciência e Tecnologia (ICT) da Unesp.
Um artigo publicado pelo grupo de pesquisadores – intitulado Machine learning approaches for mapping and predicting landslide-prone areas in São Sebastião (Southeast Brazil) – detalha como o algoritmo tornou mais eficiente e com maior taxa de precisão a previsão de desastres. O grupo também identificou características ambientais e de ocupação com maior impacto no risco de deslizamento.
Escolhendo o algoritmo
Na primeira etapa da pesquisa, foram testados os cinco algoritmos mais utilizados em trabalhos de previsão de desastres. O objetivo foi identificar aquele com a maior precisão. O grupo alimentou os modelos com informações de clima, tipo de solo, tipo de vegetação, relevos da região, acidentes anteriores e ocupação de terra.
O conjunto de algoritmos selecionado passou por treinamento e aprendeu a identificar combinações de fatores que levaram a deslizamentos, tendo como base eventos passados.
Segundo os pesquisadores, o grupo decidiu trabalhar com modelos de aprendizado de máquina porque são bons para lidar com grande quantidade de dados. Também são capazes de identificar padrões difíceis de detectar com outras técnicas ou trabalho humano.
Alcântara explica que as técnicas tradicionais exigem informações precisas e dados de alta resolução, nem sempre disponíveis. E elas tendem a não apresentar bom desempenho quando expostas a grande quantidade de dados. É nessas lacunas que as técnicas de aprendizado de máquina se provaram mais eficientes.
* com informações do Jornal da Unesp
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!