André K. Takahata’s research while affiliated with Federal University of ABC and other places

What is this page?


This page lists works of an author who doesn't have a ResearchGate profile or hasn't added the works to their profile yet. It is automatically generated from public (personal) data to further our legitimate goal of comprehensive and accurate scientific recordkeeping. If you are this author and want this page removed, please let us know.

Publications (6)


Post-processing electrical impedance tomography reconstructions with incomplete data using convolutional neural networks
  • Article

January 2024

·

6 Reads

·

2 Citations

Applied Mathematics for Modern Challenges

Roberto G. Beraldo

·

Leonardo A. Ferreira

·

Fernando S. Moura

·

[...]

·



Lexicalidade biomédica e sua mensuração em um corpus sobre COVID-19 em língua portuguesa

November 2021

·

11 Reads

Analisamos o léxico biomédico de um corpus de textos em língua portuguesa da base Pubmed sobre a Covid-19. A adoção inicial de medidas clássicas de densidade e diversidade lexical não foi capaz de evidenciar a distribuição lexical nos diferentes gêneros e especialidades clínicas de que se compõe o corpus. Com base no conceito de "lexicalidade biomédica", foi proposto e testado um novo indicador, o Lex-BioMed, com bons resultados.


Modelagem do número de novos casos confirmados por dia da COVID-19 no Brasil com uso de LSTM e predição linear

August 2021

·

3 Reads

Analisamos o comportamento de modelos de predição de passo unitário para predição de número de novos casos de COVID-19 confirmados por dia. Utilizamos preditores com uso de rede neural de memória de longo e curto prazo (LSTM) em comparação com preditores lineares. Identificamos cenários em que a LSTM apresenta melhores resultados, mas que também há desafios para que a LSTM possa generalizar os seus resultados.



Criação e análise de amostras de corpora em Português Brasileiro para detecção automática de expressões complexas em textos sobre covid-19

May 2020

·

14 Reads

Introdução. No cenário da COVID-19, o acesso social à informação auxilia na prevenção e enfrentamento da pandemia. Na busca de informações de saúde online, o leitor não familiarizado com o jargão médico e sua terminologia específica enfrenta a tarefa de compreender textos com diferentes níveis de complexidade textual (DOI:10.1109/CBMS.2006.58). Este trabalho aborda o problema da simplificação textual e, em especial, a detecção de expressões complexas como estratégia para facilitar a leitura e interpretação de textos. Descrevemos aqui o processo de criação e análise de amostra de dois corpora em Português Brasileiro sobre o COVID-19, o primeiro composto por notícias do jornal Folha de São Paulo e o segundo por textos científicos da base de dados Scielo. Adota-se a hipótese de que os textos científicos, dirigidos a um público especializado, trarão mais expressões de difícil compreensão (expressões complexas) do que os textos jornalísticos. Nosso objetivo é comparar os dois corpora e identificar quais características são determinantes no processo de detecção automática de expressões complexas, abordagem já aplicada para o Inglês no domínio da Saúde em (PMID: 21347002.) Métodos. A construção das amostras de corpora, denominadas nesse trabalho como Corpus Scielo e Corpus FSP, seguiu três estágios. Primeiro, em 14/06/2020, foi realizada a coleta de textos. Para a base Scielo adotou-se a string de busca: "COVID-19" OR coronavirus OR "Corona virus" OR "2019-nCoV" AND in:("scl") AND la:("pt") AND year cluster:("2020") AND subject_area:("Health Sciences"), que permitiu selecionar 8 textos do mês de março de 2020. Para o jornal Folha de São Paulo buscou-se pelas dez primeiras notícias com a string "Coronavírus" nas seções de Saúde e Ciência referentes ao dia 11/03/2020, quando a Organização Mundial da Saúde (OMS) declarou a COVID-19 como pandemia global. O segundo estágio consistiu na compilação dos arquivos para converter o conteúdo da Base Scielo em PDF para arquivo texto. Para isso, a biblioteca Python pdfminer3k foi utilizada. Além disso, efetuou-se a padronização dos dados, retirando-se dos arquivos de textos as referências bibliográficas, informações autorais e a versão em inglês dos resumos. Os textos do Corpus FSP foram salvos diretamente em formato de texto simples. O terceiro estágio consistiu no armazenamento e indexação dos arquivos separando os textos da base Scielo e do jornal Folha de São Paulo em dois conjuntos organizados por Título, Subtítulo, Autor, Data da publicação e Link da fonte. Em seguida, efetuou-se a aplicação de filtros de normalização à caixa baixa, remoção de Stopwords e a retirada de palavras em inglês com o auxílio do corpus Word da biblioteca NLTK. O passo seguinte consistiu na descrição dos corpora quanto às suas características gerais, tais como o número de tokens, número de types e densidade lexical (razão entre os números de types e tokens), e a distribuição de frequência de todos os types. Por fim, realizou-se manualmente a classificação dos types por dois pesquisadores independentemente, e suas divergências foram revistas por uma linguista. Considerou-se como complexos termos do domínio biomédico que não são de uso corrente, como por exemplo, "polymerase". Palavras como "vírus" não foram consideradas como complexas. Ademais, colocações como "vigilância sanitária" não foram consideradas.

Citations (1)


... Enhancing the reliability of these methods is paramount in oncological clinical practice, as it aids in decision-making and provides more accurate treatment guidance for breast cancer patients. Recent research works corroborate and strengthen this trend [4,11,16,17,18,25]. ...

Reference:

Comparative Analysis of Machine Learning Models for Breast Cancer Patients’ Survival Prediction
Machine Learning e Análise Multivariada aplicados à Sobrevida do Câncer Mama
  • Citing Article
  • July 2022

Health Informatics Journal