January 2024
·
6 Reads
·
2 Citations
Applied Mathematics for Modern Challenges
This page lists works of an author who doesn't have a ResearchGate profile or hasn't added the works to their profile yet. It is automatically generated from public (personal) data to further our legitimate goal of comprehensive and accurate scientific recordkeeping. If you are this author and want this page removed, please let us know.
January 2024
·
6 Reads
·
2 Citations
Applied Mathematics for Modern Challenges
July 2022
·
32 Reads
·
6 Citations
Health Informatics Journal
November 2021
·
11 Reads
·
·
·
[...]
·
Analisamos o léxico biomédico de um corpus de textos em língua portuguesa da base Pubmed sobre a Covid-19. A adoção inicial de medidas clássicas de densidade e diversidade lexical não foi capaz de evidenciar a distribuição lexical nos diferentes gêneros e especialidades clínicas de que se compõe o corpus. Com base no conceito de "lexicalidade biomédica", foi proposto e testado um novo indicador, o Lex-BioMed, com bons resultados.
August 2021
·
3 Reads
Analisamos o comportamento de modelos de predição de passo unitário para predição de número de novos casos de COVID-19 confirmados por dia. Utilizamos preditores com uso de rede neural de memória de longo e curto prazo (LSTM) em comparação com preditores lineares. Identificamos cenários em que a LSTM apresenta melhores resultados, mas que também há desafios para que a LSTM possa generalizar os seus resultados.
December 2020
·
8 Reads
Health Informatics Journal
May 2020
·
14 Reads
Introdução. No cenário da COVID-19, o acesso social à informação auxilia na prevenção e enfrentamento da pandemia. Na busca de informações de saúde online, o leitor não familiarizado com o jargão médico e sua terminologia específica enfrenta a tarefa de compreender textos com diferentes níveis de complexidade textual (DOI:10.1109/CBMS.2006.58). Este trabalho aborda o problema da simplificação textual e, em especial, a detecção de expressões complexas como estratégia para facilitar a leitura e interpretação de textos. Descrevemos aqui o processo de criação e análise de amostra de dois corpora em Português Brasileiro sobre o COVID-19, o primeiro composto por notícias do jornal Folha de São Paulo e o segundo por textos científicos da base de dados Scielo. Adota-se a hipótese de que os textos científicos, dirigidos a um público especializado, trarão mais expressões de difícil compreensão (expressões complexas) do que os textos jornalísticos. Nosso objetivo é comparar os dois corpora e identificar quais características são determinantes no processo de detecção automática de expressões complexas, abordagem já aplicada para o Inglês no domínio da Saúde em (PMID: 21347002.) Métodos. A construção das amostras de corpora, denominadas nesse trabalho como Corpus Scielo e Corpus FSP, seguiu três estágios. Primeiro, em 14/06/2020, foi realizada a coleta de textos. Para a base Scielo adotou-se a string de busca: "COVID-19" OR coronavirus OR "Corona virus" OR "2019-nCoV" AND in:("scl") AND la:("pt") AND year cluster:("2020") AND subject_area:("Health Sciences"), que permitiu selecionar 8 textos do mês de março de 2020. Para o jornal Folha de São Paulo buscou-se pelas dez primeiras notícias com a string "Coronavírus" nas seções de Saúde e Ciência referentes ao dia 11/03/2020, quando a Organização Mundial da Saúde (OMS) declarou a COVID-19 como pandemia global. O segundo estágio consistiu na compilação dos arquivos para converter o conteúdo da Base Scielo em PDF para arquivo texto. Para isso, a biblioteca Python pdfminer3k foi utilizada. Além disso, efetuou-se a padronização dos dados, retirando-se dos arquivos de textos as referências bibliográficas, informações autorais e a versão em inglês dos resumos. Os textos do Corpus FSP foram salvos diretamente em formato de texto simples. O terceiro estágio consistiu no armazenamento e indexação dos arquivos separando os textos da base Scielo e do jornal Folha de São Paulo em dois conjuntos organizados por Título, Subtítulo, Autor, Data da publicação e Link da fonte. Em seguida, efetuou-se a aplicação de filtros de normalização à caixa baixa, remoção de Stopwords e a retirada de palavras em inglês com o auxílio do corpus Word da biblioteca NLTK. O passo seguinte consistiu na descrição dos corpora quanto às suas características gerais, tais como o número de tokens, número de types e densidade lexical (razão entre os números de types e tokens), e a distribuição de frequência de todos os types. Por fim, realizou-se manualmente a classificação dos types por dois pesquisadores independentemente, e suas divergências foram revistas por uma linguista. Considerou-se como complexos termos do domínio biomédico que não são de uso corrente, como por exemplo, "polymerase". Palavras como "vírus" não foram consideradas como complexas. Ademais, colocações como "vigilância sanitária" não foram consideradas.
... Enhancing the reliability of these methods is paramount in oncological clinical practice, as it aids in decision-making and provides more accurate treatment guidance for breast cancer patients. Recent research works corroborate and strengthen this trend [4,11,16,17,18,25]. ...
July 2022
Health Informatics Journal