Cover Image
NEWS
2023-10-30
Este artigo foi revisto pela última vez em
Este artigo foi modificado pela última vez em 30 de Outubro de 2023.

Big Data - área do conhecimento da Ciência de Dados que estuda como tratar, analisar e obter informações a partir de um grande conjunto de dados - promete desempenhar um papel fundamental nos laboratórios de análises clínicas, revolucionando a maneira como os profissionais de saúde acessam, analisam e utilizam informações. 

No laboratório de análises clínicas do Hospital Albert Einstein, em São Paulo, onde são realizados em média um milhão de exames por mês (12 milhões no ano), a geneticista Tatiana Almeida, coordenadora de Ciência de Dados, é responsável pela implementação do P4M no Big Data Analytics. O projeto visa estruturar a gestão do montante de informação produzido no laboratório. 

“Apesar de gerar esse grande volume de data points, historicamente, eles não eram trabalhados de forma analítica. Cada área cuidava da validação dos seus próprios exames e dificilmente era possível enxergar o todo. Com a implantação do Big Data podemos estratificar os dados, analisar suas diversas composições e, dessa forma, extrair informações valiosas para aprimorar os diagnósticos e os tratamentos. É uma questão de melhoria de processo, melhoria de saúde, porque a gente gera muitos dados que são pouco vistos dessa forma”, esclarece Tatiana. 

Segundo a médica, uma das principais vantagens do Big Data para os laboratórios de análises clínicas é a capacidade de identificar padrões e tendências em grandes conjuntos de dados. Isso possibilita a detecção precoce de doenças, o desenvolvimento de terapias personalizadas e a melhoria dos protocolos. Tatiana conta, por exemplo, sobre um estudo de caso do hospital em que dois bilhões de data points gerados por exames de três milhões de pessoas foram monitorados ao longo de 20 anos. 

“Foi possível predizer com antecedência quando a pessoa teria o índice de glicemia alterado. Note que a previsão não era de que o paciente estaria diabético e sim que teria alteração da concentração de glicose no sangue. Isso é importante porque quando a taxa de 100% é detectada, a pessoa já entrou na diabetes. Nesse caso, por meio da análise dos dados, foi possível monitorar para o paciente não chegar ao nível crítico e, efetivamente, não adoecer. Ou seja, o uso do Big Data permite uma abordagem mais proativa e eficaz no cuidado ao paciente”, explica Tatiana. 

Para a médica, além disso, a combinação de diferentes fontes de dados clínicos e genômicos oferece uma visão mais abrangente da saúde do paciente, permitindo uma análise mais precisa e personalizada. Ela explica que quando um indivíduo apresenta um quadro de doença, dificilmente há somente uma alteração, geralmente os sinais aparecem em outros órgãos também e muitas vezes é uma ação silenciosa. Por isso, a investigação, tendo como base imagem: Igor Kutyaev o conjunto de dados, pode levar a descobertas importantes e avanços significativos no campo da medicina, auxiliando na pesquisa e no desenvolvimento de novas terapias. 

Em vez de analisar um marcador específico, o modelo analítico preditivo possibilita ter uma fotografia do momento fisiológico da pessoa. Na área de check-up do Einstein, por exemplo, Tatiana revela que é utilizado um modelo que analisa síndrome metabólica por meio da combinação de resultados de diversos exames. “Esse modelo avalia qual a chance de na próxima consulta o paciente apresentar síndrome metabólica. Mas também podemos alterar os parâmetros dentro do modelo, incluindo condicionantes como, por exemplo, se a pessoa emagrece, diminui a pressão, etc. Então o diagnóstico pode ser alterado caso haja uma ação direta preditiva”, detalha. 

A implantação de Big Data em laboratórios de análises clínicas também apresenta desafios, na avaliação de Tatiana, como a necessidade de infraestrutura adequada para armazenamento, processamento e capacitação de profissionais para lidar com análises complexas de dados. 

“Só é possível se todos os dados de fato estiverem estruturados para serem geridos em um modelo. Num computador comum é inviável trabalhar com três bilhões de data points, por exemplo. Tem que ter isso em nuvem computacional, requer um tempo de processamento alto e ainda de pessoas que saibam fazer isso”, conclui Tatiana. 

No Albert Einstein estão sendo desenvolvidos alguns modelos como o de análise metabólica, mencionado anteriormente, e o de reinternação para avaliar quais as chances de uma pessoa que teve alta médica internar novamente nos 30 dias subsequentes. “Dependendo do resultado que o modelo apresentar, é mais adequado manter o paciente internado até que as chances de reincidências diminuam, o que possibilita programar uma melhor gestão dos leitos”, detalha a geneticista. 

A engrenagem de um Big Data Para lidar com grandes volumes de dados estruturados e não estruturados, como textos, imagens, vídeos, áudios e informações geradas por dispositivos conectados à Internet das Coisas (IoT), as principais tarefas realizadas por sistemas de Big Data incluem: Coleta de dados: Os sistemas de Big Data coletam dados de várias fontes, como bancos de dados, redes sociais, sensores, transações comerciais, entre outros. 

No caso dos laboratórios são dados da rotina de exames dos pacientes. Armazenamento de dados: Esses dados são armazenados em infraestruturas distribuídas, como bancos de dados NoSQL, sistemas de arquivos e plataformas de armazenamento em nuvem. Processamento de dados: Técnicas de processamento distribuído e paralelo são usadas para processar os dados em larga escala. Isso envolve a análise de padrões, o cálculo de estatísticas, a execução de algoritmos de aprendizado de máquina e a identificação de correlações entre os dados. Análise de dados: A análise de Big Data envolve a aplicação de algoritmos e técnicas avançadas para obter insights e informações significativas. Isso pode incluir análise estatística, mineração de dados, aprendizado de máquina, inteligência artificial e visualização de dados.


** Matéria originalmente publicada na Revista Notícias da Medicina Laboratorial nº 124.