ArticlePDF Available

EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM

Authors:

Abstract

Resumo: O TAP-Pensamento mede abordagens de aprendizagem dos leitores ao identificarem o pensamento de um autor em determinado texto. Até onde temos conhecimento, ele é o primeiro teste baseado em desempenho a medir abordagens de aprendizagem. A despeito de suas virtudes, o TAP-Pensamento apresenta características em seus itens que tornam grande a chance de acerto ao acaso ou acerto por erro sistemático. Buscando resolver esse problema, o TAP-Pensamento 2 foi criado, com mudanças substantivas na estrutura de seus itens. O presente trabalho investiga se essas melhorias trouxeram um impacto na confiabilidade dos escores do teste. Participaram deste estudo 129 estudantes do ensino médio de uma escola pública federal brasileira. Os resultados mostram que uma média de 31% das respostas por item (DP = 24%) deixaram de ser erroneamente pontuadas como acertos (falso-positivos) na forma A do teste. Resultado similar ocorreu na forma B do teste. Em média, 26% das respostas por item (DP = 26%) teriam sido equivocadamente pontuadas como acertos (falso-positivos), caso as mudanças no TAP-Pensamento 2 não tivessem sido elaboradas. Complementarmente, as respostas dos estudantes do sexo masculino e feminimo, assim como dos estudantes do primeiro, segundo e terceiro ano do ensino médio foram comparadas, no que diz respeito aos sete tipos de erro avaliados no TAP-Pensamento 2 e que representam abordagem superficial. Nenhuma diferença importante foi encontrada. Concluindo, o TAP-Pensamento 2 apresenta escores confíáveis para a medida das abordagens de aprendizagem dos leitores ao identificarem o pensamento de um autor em determinado texto. Abstract: The SLAT-Thinking measures the readers' approaches to learning by identifying the author's thinking in a given text. To the best of our knowledge, it is the first test based on performance to measure learning approaches. In spite of its virtues, the SLAT-Thinking has characteristics in its items that increase the chance of hit the items by random or systematic error. Seeking to solve this problem, the SLAT-Thinking 2 was created, with important changes in the structure of its items. The present work investigates whether these improvements have had an impact on the reliability of scores of the test. The sample of this study consisted of 129 high school students from a Brazilian federal public school. The results show that an average of 31% of responses per item (SD = 24%) were no longer erroneously scored as hits (false-positives) in the A form of the test. A similar result occurred in form B of the test. On average, 26% of the responses per item (SD = 26%) would have been wrongly scored as correct answers (false-positives), if the changes in SLAT-Thinking 2 had not been elaborated. In addition, we compared the responses of male and female students, as well as students of the first, second and third year of high school, with regard to the seven types of error assessed in SLAT-Thinking 2 and which represent superficial approach. No important differences were found. In conclusion, the SLAT-Thinking 2 presents reliable scores to measure the readers' approaches to learning by identifying the author's thinking in a given text.
European Journal of Education Studies
ISSN: 2501 - 1111
ISSN-L: 2501 - 1111
Available on-line at: www.oapub.org/edu
Copyright © The Author(s). All Rights Reserved. 27
DOI: 10.46827/ejes.v9i9.4450
Volume 9 Issue 9 2022
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO
TAP-PENSAMENTO 2, UM TESTE BASEADO EM DESEMPENHO
PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
i
Cristiano Mauro Assis Gomes
ii
,
Diogo Ferreira do Nascimento
Laboratório de Investigação da Arquitetura Cognitiva (LAICO),
Universidade Federal de Minas Gerais,
Brasil
Resumo:
O TAP-Pensamento mede abordagens de aprendizagem dos leitores ao identificarem o
pensamento de um autor em determinado texto. Até onde temos conhecimento, ele é o
primeiro teste baseado em desempenho a medir abordagens de aprendizagem. A
despeito de suas virtudes, o TAP-Pensamento apresenta características em seus itens que
tornam grande a chance de acerto ao acaso ou acerto por erro sistemático. Buscando
resolver esse problema, o TAP-Pensamento 2 foi criado, com mudanças substantivas na
estrutura de seus itens. O presente trabalho investiga se essas melhorias trouxeram um
impacto na confiabilidade dos escores do teste. Participaram deste estudo 129 estudantes
do ensino médio de uma escola pública federal brasileira. Os resultados mostram que
uma média de 31% das respostas por item (DP = 24%) deixaram de ser erroneamente
pontuadas como acertos (falso-positivos) na forma A do teste. Resultado similar ocorreu
na forma B do teste. Em média, 26% das respostas por item (DP = 26%) teriam sido
equivocadamente pontuadas como acertos (falso-positivos), caso as mudanças no TAP-
Pensamento 2 não tivessem sido elaboradas. Complementarmente, as respostas dos
estudantes do sexo masculino e feminimo, assim como dos estudantes do primeiro,
segundo e terceiro ano do ensino médio foram comparadas, no que diz respeito aos sete
tipos de erro avaliados no TAP-Pensamento 2 e que representam abordagem superficial.
Nenhuma diferença importante foi encontrada. Concluindo, o TAP-Pensamento 2
apresenta escores confíáveis para a medida das abordagens de aprendizagem dos leitores
ao identificarem o pensamento de um autor em determinado texto.
Palavras-chave: abordagens de aprendizagem; leitura; teste baseado em desempenho;
medida
i
EVIDENCE OF RELIABILITY OF SLAT-THINKING 2 SCORES, A TEST BASED ON PERFORMANCE
TO MEASURE LEARNING APPROACHES
ii
Correspondence: email cristianomaurogomes@gmail.com
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 28
Abstract:
The SLAT-Thinking measures the readers' approaches to learning by identifying the
author's thinking in a given text. To the best of our knowledge, it is the first test based on
performance to measure learning approaches. In spite of its virtues, the SLAT-Thinking
has characteristics in its items that increase the chance of hit the items by random or
systematic error. Seeking to solve this problem, the SLAT-Thinking 2 was created, with
important changes in the structure of its items. The present work investigates whether
these improvements have had an impact on the reliability of scores of the test. The sample
of this study consisted of 129 high school students from a Brazilian federal public school.
The results show that an average of 31% of responses per item (SD = 24%) were no longer
erroneously scored as hits (false-positives) in the A form of the test. A similar result
occurred in form B of the test. On average, 26% of the responses per item (SD = 26%)
would have been wrongly scored as correct answers (false-positives), if the changes in
SLAT-Thinking 2 had not been elaborated. In addition, we compared the responses of
male and female students, as well as students of the first, second and third year of high
school, with regard to the seven types of error assessed in SLAT-Thinking 2 and which
represent superficial approach. No important differences were found. In conclusion, the
SLAT-Thinking 2 presents reliable scores to measure the readers' approaches to learning
by identifying the author's thinking in a given text.
Keywords: approaches to learning; reading; test based on performance; measurement
1. Introdução
A teoria das abordagens de aprendizagem contribui de maneira singular à
educação ao apresentar um conjunto de argumentos e evidências de que a aprendizagem
é constituída por duas formas básicas de interação do sujeito com os objetos de
conhecimento: abordagem superficial e abordagem profunda (Rodrigues & Gomes,
2020). A abordagem superficial é definida conceitualmente como a junção de estratégias
cognitivas de baixo nível (ex. memorização sem significado), motivações extrínsecas e
baixo engajamento do sujeito ao interagir com os objetos de conhecimento. a
abordagem profunda é definida como a junção de estratégias de alto nível (ex.
memorização com construção de significado), motivações intrínsecas e forte engajamento
(Gomes, Araujo et al., 2020).
A despeito de suas virtudes, a teoria das abordagens de aprendizagem apresenta
uma forte limitação: as abordagens profunda e superficial são medidas exclusivamente
por testes baseados em autorrelato (Soler-Contreras et al., 2017). Isso compromete a
qualidade da medida, pois o autorrelato gera uma série de vieses substanciais, os quais
são plenamente reconhecidos pela literatura psicométrica (Gomes, Quadros et al., 2020).
Ademais, o autorrelato demanda que o respondente possua um bom conhecimento sobre
seus processos internos. Em suma, as evidências baseadas nessas medidas podem estar
repletas de vieses, o que poderia explicar os resultados decepcionantes encontrados nas
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 29
meta-análises de Watkins (2001) e Richardson et al. (2012) de que as abordagens pouco
predizem o desempenho escolar-acadêmico.
Considerando o exposto, o Laboratório de Investigação da Arquitetura Cognitiva
(LAICO) da Universidade Federal de Minas Gerais (UFMG) iniciou uma agenda de
desenvolvimento de testes baseados em desempenho para a medida das abordagens. O
LAICO é um centro de pesquisa e formação em psicometria e psicologia da educação. Ele
possui vários trabalhos sobre medida, estudos preditivos, educação-intervenção
cognitiva, estatísticas estado-da-arte, testagens de teorias por modelamentos, assim como
aplicações de machine learning na educação e áreas correlatas (Tabela 1).
Tabela 1: Exemplos de trabalhos do LAICO sobre medida, estudos preditivos,
estatísticas estado-da-arte e aplicações de machine learning em educação e áreas correlatas
Tipos
Trabalhos
Estudos Preditivos
Alves et al. (2016, 2017, 2018), Gomes (2005), Gomes & Borges (2009a), Mansur-
Alves et al. (2021), Martins et al. (2018), Pazeto et al. (2019, 2020), Teodoro et al.
(2021)
Educação e
Intervenção
Cognitiva
Cardoso et al. (2019), Gomes (2002, 2007a, 2007b, 2020a, 2020b), Gomes,
Carneiro et al. (2008), Gomes, Golino, Santos et al. (2014), Pereira et al. (2019),
Ricci et al. (2020)
Modelamentos e
Testagens de Teorias
Dias et al. (2015), Gomes & Borges (2007, 2008c), Gomes, Golino et al. (2016,
2021), Laros et al. (2014), Reppold et al. (2015)
Medida
Gauer et al. (2010), Golino & Gomes (2015a, 2015b, 2015d, 2015e, 2016), Golino
et al. (2015), Golino et al. (2021), Gomes, Araujo et al. (2022), Gomes, Araujo et
al. (2018), Gomes & Jelihovschi (2016), Gomes et al. (2022b), Haase et al. (2010),
Jelihovschi & Gomes (2019)
Machine Learning
Golino & Gomes (2014c), Gomes & Almeida (2017), Gomes, Amantes et al.
(2020), Gomes, Farias et al. (2021); Gomes, Fleith et al. (2020), Gomes &
Jelihovschi (2019), Gomes, Lemos et al. (2020, 2021)
Análises Estado-da-
Arte
Gomes, Almeida et al. (2017), Gomes & Gjikuria (2017), Gomes, Golino et al.
(2018, 2020), Gomes & Jelihovschi (2016), Gomes & Valentini (2019)
No final dos anos 2010, o LAICO elaborou o primeiro teste baseado em
desempenho para a medida das abordagens de aprendizagem: o TAP-Pensamento. Esse
teste é sustentado conceitualmente pela premissa básica de que as abordagens podem ser
medidas por meio de comportamentos/performances presentes na interação do sujeito
com os objetos de conhecimento. O teste também possui outras premissas e o leitor
interessado obtém uma descrição detalhada das mesmas no artigo de Gomes, Linhares et
al. (2021).
O TAP-Pensamento não é um teste voltado ao contexto geral da aprendizagem
escolar-acadêmica, como são os testes de autorrelato existentes no campo de estudos
sobre as abordagens. O TAP-Pensamento mede as abordagens de aprendizagem dos
leitores ao identificarem o pensamento de um autor em determinado texto. A despeito
de não ser um teste voltado ao contexto geral da aprendizagem escolar-acadêmica, o
contexto do TAP-Pensamento é bastante relevante. Identificar corretamente o
pensamento de um autor em determinado texto é uma habilidade importante, senão
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 30
central, na formação do cidadão crítico e reflexivo. Não iremos nos alongar nessa questão,
mas o leitor interessado poderá obter argumentos detalhados em Gomes, Linhares et al.
(2021), os quais sustentam conceitualmente que a identificação do pensamento de certo
autor em determinado texto é um componente central do pensamento crítico e reflexivo
no século XXI.
Sobre sua estrutura, o TAP-Pensamento apresenta dois textos polêmicos e um
conjunto de itens sobre cada texto, os quais compõem a forma A e a forma B do teste.
Cada item apresenta um argumento que pode ou não representar o pensamento do autor
no texto. Para responder cada item, o respondente deve assinalar uma de três opções de
múltipla-escolha: (1) o argumento apresentado representa o pensamento do autor no
texto, (2) o argumento não representa o pensamento do autor no texto, (3) não é possível
responder.
O TAP-Pensamento apresenta uma limitação importante. A estrutura das opções
de múltipla-escolha do teste tende a propiciar uma grande chance de acerto ao acaso ou
acerto por erro sistemático. A despeito de possuir três alternativas de resposta, em
nenhum item a opção “não é possível responder” é a opção correta. Em termos práticos,
mais de 99% das respostas dos respondentes se concentram apenas nas opções
“representa ou não representa o pensamento do autor no texto”, de modo que a opção
“não é possível responder” é irrelevante para a imensa maioria dos respondentes. Isso
torna grande a chance de acerto ao acaso. Além disso, essas opções de múltipla-escolha
exigem apenas que o respondente escolha se o argumento apresentado no item
representa ou não representa o pensamento do autor no texto. Ou seja, uma grande
chance de que o respondente acerte o item, mas por motivos errados, o que gera um erro
sistemático de escore. Por exemplo, o respondente pode avaliar corretamente que o
argumento apresentado em certo item representa o pensamento do autor no texto, mas
pode estar completamente equivocado sobre os motivos que tornam o argumento
apresentado no item um representante do pensamento do autor nesse texto. Em suma,
quando o respondente acerta um item ao acaso ou por erro sistemático, seu escore nesse
item é um falso-positivo, pois é atribuído falsamente que ele possui a abordagem
profunda necessária para acertar o item enquanto de fato não possui.
Uma grande quantidade de falso-positivos compromete substancialmente a
confiabilidade dos escores do teste, pois superestima o nível da abordagem de
aprendizagem de muitos respondentes. Em um nível mais grave, pode até mesmo
comprometer a validade do instrumento. Com vistas a resolver essa questão, o LAICO
criou o TAP-Pensamento 2. Detalhes da racionalidade do teste, assim como sua validade
de conteúdo, são apresentados em Gomes e Nascimento (2021k).
Há três grandes mudanças no TAP-Pensamento 2 em relação à versão original: (1)
as opções de múltipla-escolha dos itens passaram a representar processos de erros que
demarcam abordagens superficiais do respondente ao identificar o pensamento do autor
em determinado texto; (2) as opções de múltipla-escolha foram aumentadas
substancialmente de três para sete; (3) em cada opção de múltipla-escolha, foi criada uma
justificativa que explica porque o argumento apresentado no item representa ou não o
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 31
pensamento do autor no texto. Essa justificativa é central para a eliminação de falso-
positivos que o respondente deve saber o motivo correto pelo qual o argumento no
item representa ou não representa o pensamento do autor no texto. Em todos os itens, há
apenas uma opção de múltipla-escolha correta, assim como ocorre na versão original.
Considerando as melhorias substantivas no TAP-Pensamento 2, o presente artigo
tem como objetivo investigar se essas melhorias impactaram substancialmente na
eliminação de falso-positivos. Essa investigação permite verificar se o TAP-Pensamento
2 possui escores confiáveis em que os falso-positivos são mitigados.
Complementarmente, este artigo analisou a frequência de respostas dos respondentes
nos sete tipos de erro avaliados pelo TAP-Pensamento 2. Também foram comparadas as
frequências de respostas dos estudantes do sexo masculino e feminino, assim como dos
estudantes do primeiro, segundo e terceiro ano do ensino médio, no que diz respeito a
esses tipos de erro.
2. Método
2.1 Participantes
Fizeram parte da amostra 129 estudantes do ensino médio de uma escola pública
federal localizada na cidade de Belo Horizonte, Brasil. A idade desses estudantes variava
entre 15 e 20 anos (M = 16,7; DP = 1,1), sendo que 45 (34,9%) eram do sexo feminino e 84
do sexo masculino (65,1%). Com relação às séries, 52 (40,3%) cursavam o ano do ensino
médio, 29 (22,5%) o 2º ano e 48 (37,2%) o 3º ano.
2.2 Instrumento
TAP-Pensamento 2
Conforme já apresentado, o LAICO é um laboratório da Universidade Federal de
Minas Gerais, Brasil, que articula os campos da psicologia da educação e psicometria.
Fruto dessa articulação, o LAICO é um centro de expertise na construção e validação de
testes psicológicos, particularmente instrumentos de medida psicoeducacionais (ver
Tabela 2 e Tabela 3). O TAP-Pensamento 2 está inserido nesse contexto e é um teste do
LAICO para a medida das abordagens de aprendizagem.
Tabela 2: Testes criados pelo LAICO
Estudos
Alves et al. (2012), Golino & Gomes (2014a, 2014b, Golino, Gomes &
Andrade (2014), Gomes (2010a, 2010b, 2011b, 2012b), Gomes &
Borges (2009b, 2009c), Gomes, Araujo et al. (2014), Gomes & Golino
(2012a, 2015a, 2015b), Gomes & Nascimento (2021a, 2021b, 2021c,
2021d, 2021e, 2021f, 2021g, 2021i, 2021j, 2021l, 2021m, 2021n, 2021o,
2021p), Gomes, Nascimento et al. (2021a, 2021b, 2021c, 2021d)
Castillo-Diaz (2022), Golino & Gomes (2011), Gomes, Araujo et al.
(2021), Gomes, Golino et al. (2014)
Costa et al. (2017)
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 32
Diaz & Gomes (2021a, 2021b)
Golino & Gomes (2012, 2015c, 2019), Golino, Gomes, Commons et al.
(2014), Gomes, Araujo, Lima et al. (2021), Gomes et al. (2013)
Gomes (2010c, 2011a, 2013, 2022c), Gomes, Farias et al. (2022), Gomes
& Golino (2012c, 2014), Gomes et al. (2011)
Gomes (2012a), Gomes & Golino (2012b), Gomes, Nascimento et al.
(2019), Pinheiro et al. (2009)
Gomes (2021a), Pires & Gomes (2017, 2018)
Gomes (2021b), Gomes & Linhares (2018), Gomes, Linhares et al.
(2021), Gomes & Nascimento (2021h, 2021k), Gomes, Quadros et al.
(2020)
Gomes (2022a)
Gomes (2022b), Gomes, Jelihovschi et al. (2022a), Gomes &
Rodrigues (2021)
Gomes, Araujo et al. (2020)
Gomes & Borges (2008a)
Gomes & Gjikuria (2018)
Gomes & Rozenberg (2021)
Silveira et al. (2012), Silveira & Gomes (2014)
Tabela 3: Testes criados por outros centros de
pesquisa em que o LAICO atuou como parceiro técnico
Testes
Estudos
Escalas Nordoff Robbins (validação para o contexto
brasileiro)
André et al. (2016, 2017, 2018, 2019, 2020a, 2020b,
2020c, 2020d, 2020e, 2021a, 2021b, 2021c)
Questionário de Percepções Acadêmicas e sua
versão para o português brasileiro
Araújo et al. (2018), Fleith, Almeida et al. (2020),
Fleith, Gomes et al. (2020), Monteiro et al. (2020)
Instrumento de Escaneamento de Estudantes em
Alto Risco de Abandono no Ensino Superior
Casanova et al. (2021)
RESTQ-Coach (versão brasileira)
Costa et al. (2012)
Entrevista Zarit de Exaustão para a medida do
indivíduo
Ferreira & Gomes (2017)
Inventário para Práticas de Ensino para a
Criatividade no Ensino Superior
Fleith & Gomes (2019)
Instrumento de Avaliação Docente
Gomes & Borges (2008b)
Estilos de Pensamento Executivo, Legislativo e
Judiciário para o português brasileiro
Gomes & Marques (2016), Gomes, Marques et al.
(2014)
Student conceptions of assessment inventory
Matos et al. (2019)
Adaptive Behavior Assessment System no contexto
brasileiro
Mecca et al. (2015)
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 33
Questionário sobre o Conhecimento de Dentistas
sobre o HIV/AIDS
Moura et al. (2014)
Matrizes Progressivas Coloridas do Raven
(validade estrutural no contexto brasileiro)
Munis et al. (2016)
Teste de conhecimento tático declarativo
Reis et al. (2021)
Módulo de dependência do MINI plus adaptado
para dependência em açúcar
Rosa et al. (2013)
Test of Gross Motor Development
Salami et al. (2021)
WAIS-III adaptada para o Brasil
Valentini et al. (2015)
O TAP-Pensamento 2 é um teste baseado em desempenho que mede as
abordagens de aprendizagem dos leitores ao identificarem o pensamento de um autor
em determinado texto. O teste apresenta duas formas. A forma A é composta por um
texto polêmico e 16 itens e a forma B possui um segundo texto polêmico e outros 17 itens.
Cada item apresenta um argumento em relação ao texto e um conjunto de sete
alternativas de resposta: três delas apresentam o posicionamento de que o argumento
apresentado pelo item REPRESENTA o pensamento do autor no texto e uma afirmativa
que justifica tal posicionamento; três delas apresentam o posicionamento de que o
argumento do item NÃO REPRESENTA o pensamento do autor no texto e uma
afirmativa que justifica esse posicionamento; a última alternativa apresenta o
posicionamento de que NENHUMA DAS ALTERNATIVAS ANTERIORES está correta.
Há apenas uma opção correta por item.
Cada opção de múltipla-escolha dos itens do TAP-Pensamento 2 representa um
dos sete processos de erro estipulados pelos autores do teste. Esses processos
representam manifestações da abordagem superficial do leitor ao identificar o
pensamento do autor em determinado texto (Tabela 4). Como será detalhado mais
adiante neste artigo (Tabela 6), processos de erro que possuem mais opções de
múltipla-escolha ao longo do teste. Por exemplo, cerca de um terço das opções de
múltipla-escolha do TAP-Pensamento 2 representam o processo de erro “Projeção de
Pensamento” (37,5% na forma A e 24,4% na forma B). Detalhes sobre o teste, sua
racionalidade, exemplo de itens, entre outros aspectos, são apresentados em Gomes e
Nascimento (2021k).
Tabela 4: Processos de erro que sustentam conceitualmente
as opções de múltipla-escolha dos itens do TAP-Pensamento 2
Processos de erro
Descrição
1. Não captura o
significado dos
termos
O leitor não decodifica os significados de certos termos, impedindo um
entendimento adequado.
Exemplo: Em muitas situações, “Está muito frio hoje” e “Hoje o dia está gelado”
expressam o mesmo significado. Nesse processo de erro, o leitor entende que as
frases não podem ser semelhantes apenas porque o termo “muito frio” é diferente
do termo “gelado”.
2. Não diferencia
o significado dos
termos
Ocorre quando o leitor supõe que termos com semânticas diferentes expressam o
mesmo significado.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 34
Exemplo: “Frentes frias estão associadas ao aumento das chuvas” e “Frentes frias
causam aumento das chuvas”. Ao ler essa frase, o leitor supõe que elas dizem a
mesma coisa, porque não diferencia o significado dos termos “associação” e
“causa”.
3. Projeção de
pensamento
Ocorre quando o leitor atribui (projeta) o seu pensamento como sendo o
pensamento do autor.
Exemplo: “Maria gosta de chocolate e picolé”. Como o leitor tem a crença de que
quem gosta de chocolate e picolé é viciado em doce, então ele conclui que “Maria
é viciada em doce” e que o autor argumenta isso.
4. Refinamento do
argumento
O leitor acrescenta novos argumentos na busca de sustentar ou aprimorar algum
argumento apresentado pelo autor. O acréscimo é entendido pelo leitor como um
argumento do próprio autor. Embora todo refinamento também inclua projeção
de pensamento, o processo de refinamento se distingue da projeção por ser uma
tentativa de melhoria do pensamento do autor.
Exemplo: o leitor lê a frase “Os homens são machistas” e interpreta que o autor
quer dizer que a maioria dos homens é machista, mas não todos. Afinal, o leitor
entende que afirmar que todos os homens são machistas é uma afirmativa muito
forte e talvez inadequada.
5. Falsa
causalidade
Ocorre quando o leitor atribui uma relação de causa quando apenas uma
associação é estabelecida. Este processo de erro normalmente também abarca a
não diferenciação do significado dos termos de causalidade e associação.
Exemplo: “Pessoas que consomem chocolate com frequência são mais felizes”. Ao
ler a frase, o leitor conclui erroneamente que o consumo frequente de chocolate
causa felicidade.
6. Não identifica
certas relações
Ocorre quando alguma relação apresentada pelo autor não é identificada pelo
leitor, implicando em conclusões lógicas inadequadas.
Exemplo: “Maria não gosta de sorvete porque acha que faz mal à saúde”. O leitor
lê essa frase e entende que Maria não gosta de sorvete, mas ignora o motivo.
7. Conclusão
lógica equivocada
O leitor identifica corretamente os termos, mas estabelece uma conclusão ilógica.
Exemplo: “Todos os homens são mortais. Sócrates é homem.” A despeito de
compreender os termos das duas frases, o leitor articula as premissas de modo
errado e conclui que Sócrates é imortal, algo que não seria logicamente possível.
Nota: Adaptado de Gomes e Nascimento (2021).
2.3 Coleta e Análise de Dados
A pesquisa seguiu todos os cuidados éticos em relação aos participantes. Ela foi
aprovada pelo Comitê de Ética da Universidade Federal de Minas Gerais, sob o número
CAAE 29421920.5.0000.5149. Aproximadamente metade dos participantes respondeu os
itens da forma A do teste, enquanto a outra metade respondeu os itens da forma B. Os
estudantes foram alocados de forma aleatória para responder as formas do teste.
Para a análise do impacto da estrutura do TAP-Pensamento 2 sobre a mitigação de
falso-positivos, utilizamos algumas análises estatísticas. Para a comparação das respostas
dos estudantes do sexo masculino e feminino, assim como dos estudantes no primeiro,
segundo e terceiro ano do ensino médio, no que diz respeito aos tipos de erro, utilizamos
testes de qui-quadrado e tamanho de efeito. Os cálculos foram realizados com o software
R e uma calculadora virtual de qui-quadrado (https://www.socscistatistics.com/tests/),
visando verificar se os resultados encontrados em ambos seriam similares.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 35
3. Resultados e Discussão
3.1 Eliminação dos falso-positivos
Duas categorias foram criadas, “posicionamento correto” e “acerto”, para verificar
se as melhorias no TAP-Pensamento 2 eliminam substancialmente escores falso-
positivos. Conforme já dissemos, cada item do TAP-Pensamento 2 possui sete opções de
resposta. Três delas possuem o posicionamento de que o argumento apresentado no item
REPRESENTA o pensamento do autor no texto. Outras três opções de resposta possuem
o posicionamento de que o argumento apresentado no item NÃO REPRESENTA o
pensamento do autor no texto. Nesse sentido, a categoria “posicionamento correto”
indica o percentual de respostas por item em que as pessoas selecionaram qualquer uma
das três opções em que o posicionamento é correto. Por exemplo, se o argumento
apresentado em determinado item REPRESENTA o pensamento do autor no texto, então
a categoria “posicionamento correto” indicará para esse item o percentual de respostas
em que os respondentes selecionaram qualquer uma das três opções com o
posicionamento REPRESENTA. Por sua vez, a categoria “acerto” indica o percentual de
respostas por item em que a opção correta foi selecionada. A opção correta, conforme
dissemos, é aquela em que tanto o posicionamento quanto a justificativa são adequados.
A diferença entre os percentuais das categorias “posicionamento correto” e
“acerto” representa o percentual de escores falso-positivos por item, os quais foram
eliminados justamente pelas melhorias introduzidas no TAP-Pensamento 2. Por
exemplo, no item 1 da forma A do TAP-Pensamento 2, 39% das respostas foram acertos,
enquanto 85% das respostas foram posicionamentos corretos. A diferença é de 46%,
representando o percentual de escores falso-positivos eliminados graças às melhorias no
TAP-Pensamento 2. Essa diferença é enorme. Sem essas melhorias, o item 1 seria
equivocamente interpretado como fácil (85% de acertos) e 46% das respostas nesse item
seriam erradamente pontuadas como acertos (falso-positivos). Conforme dissemos, na
versão original do teste, apenas o posicionamento (representa ou não representa) era
suficiente para gerar um escore de acerto.
Tabela 5: Percentual de falso-positivos eliminados devido à estrutura do TAP-Pensamento 2
Diferença entre os acertos e os posicionamentos corretos por item
Forma A
Forma B
Média
31%
26%
DP
24%
26%
Máx.
89%
79%
Min.
0%
0%
A Tabela 5 mostra que, em média, 31% das respostas por item (DP = 24%) deixaram
de ser erroneamente pontuadas como acertos (falso-positivos) na forma A do teste.
Resultado similar ocorreu na forma B do teste. Em média, 26% das respostas por item
(DP = 26%) teriam sido equivocadamente pontuadas como acertos (falso-positivos), caso
as mudanças no TAP-Pensamento 2 não tivessem sido elaboradas. Como essa mitigação
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 36
de falso-positivos é muito alta, pode-se afirmar que as melhorias no TAP-Pensamento 2
acarretaram um impacto muito importante para a geração de escores confiáveis.
3.2 Análise sobre os processos de erro
No total, houve 1072 respostas à forma A e 1052 à forma B do TAP-Pensamento 2.
Essas respostas foram categorizadas e contabilizadas com o intuito de averiguar quais
foram os processos de erro mais frequentemente cometidos pelos respondentes. A Tabela
6 sumariza esses dados.
Tabela 6: Categorização da Frequência de Respostas em Tipos de Erros
Categorias
de
resposta
Respostas
na
Forma A
Opções de
Múltipla-Escolha na
Forma A
Respostas
na
Forma B
Opções de
Múltipla-Escolha
na Forma B
Conclusão lógica
equivocada
80 (7,5%)
9,8%
224 (21,3%)
18,5%
Correto
202 (18,8%)
14,3%
178 (16,9%)
14,3%
Falsa causalidade
-
-
154 (14,6%)
8,4%
Não captura o
significado dos
termos
92 (8,6%)
7,1%
20 (1,9%)
5,0%
Não diferencia o
significados dos
termos
174 (16,2%)
8,9%
30 (2,9%)
1,7%
Não identifica certas
relações
78 (7,3%)
7,1%
54 (5,1%)
7,6%
Não resposta
1 (0,1%)
-
-
-
Nenhuma das
alternativas anteriores
42 (3,9%)
14,3%
42 (4,0%)
14,3%
Projeção de
pensamento
373 (34,8%)
37,5%
256 (24,3%)
24,4%
Refinamento do
argumento
30 (2,8%)
0,9%
102 (9,7%)
6,7%
A Tabela 6 mostra as respostas na forma A e na forma B do teste. Essas respostas
indicam a frequência com que os respondentes selecionaram as opções de múltipla-
escolha relacionadas a cada tipo de erro. Nas colunas sobre as opções de múltipla-escolha
na forma A e na forma B do teste, a Tabela 6 mostra o percentual de opções de múltipla-
escolha relacionadas a cada tipo de erro. Por exemplo, a Tabela 6 mostra que o processo
de erro “Conclusão lógica equivocada” é representado por 9,8% das opções de múltipla-
escolha existentes na forma A do teste. Por sua vez, 7,5% das respostas dos respondentes
envolveram selecionar essas opções de resposta na forma A do teste. Comparando essa
diferença, isso significa que a frequência de respostas nesse tipo de erro foi menor do que
a quantidade de opções disponíveis sobre esse erro na forma A do teste.
A Tabela 6 mostra que algumas diferenças importantes. Isso é observado na
forma A do teste no processo de erro “não diferencia o significado dos termos”. A
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 37
frequência de respostas nesse tipo de erro (16,2% das respostas) foi muito maior do que
a quantidade de opções disponíveis sobre esse erro (8,9% das opções de múltipla-
escolha). Na forma B, a maior diferença foi no erro processual “falsa causalidade”.
Ainda sobre os dados da Tabela 6, deve-se destacar que o erro processual de
“projeção de pensamento” representa cerca de um terço das opções de múltipla-escolha
do teste e também das respostas dos respondentes. Esse percentual é maior na forma A
do que na forma B do teste. Em suma, a alta frequência de respostas nesse tipo de erro
constitui, provavelmente, um reflexo da própria constituição do teste.
3.3 Comparação entre os sexos e as séries escolares
Este estudo também comparou a frequência de respostas nos sete tipos de erros
avaliados pelo TAP-Pensamento 2 em estudantes do sexo masculino e feminino, assim
como em estudantes do primeiro, segundo e terceiro ano do ensino médio. Neste texto,
apenas apresentaremos as diferenças estatisticamente significativas.
A única diferença observada na forma A do teste foi a favor do sexo feminino, em
relação ao erro processual “não diferencia o significado dos termos” (Feminino = 39
[12,2%]; Masculino = 135 [18,0%]; W de Cohen [IC 95%] = 0,07 [0,01 0,13]; p = 0,019).
Trinta e nove (39) respostas dos estudantes do sexo feminino envolveram esse erro na
forma A, representando 12,2% do total de respostas do sexo feminino na forma A do teste.
Por sua vez, 135 respostas do sexo masculino envolveram esse tipo de erro na forma A
do teste, representando 18,0% do total de respostas do sexo masculino na forma A. A
diferença é estatisticamente significativa, com um p-valor de 0,019. Apesar de existente,
a diferença encontrada é por nós interpretada como desprezível, considerando-se o
tamanho de efeito do W de Cohen encontrado de 0,07 (W de Cohen = 0,07). Nossa
intepretação é embasada nos pontos de corte correntemente utilizados pela literatura.
Eles são os seguintes: 0,10 a 0,29 = diferença pequena, 0,30 a 0,49 = diferença média, e 0,50
ou maior = diferença grande (https://rcompanion.org/handbook/H_10.html).
Na forma B do teste houve uma diferença a favor do sexo feminino, em relação
aos acertos (Feminino = 85 [20,0%]; Masculino = 93 [14,8%]; W de Cohen [IC 95%] = 0,08
[0,02 0,14]; p = 0,027). Também houve uma diferença a favor das séries mais avançadas,
em termos de acertos (1º ano = 60 [13,6%]; 2º ano = 37 [18,1%]; 3º ano = 81 [19,9%]; W de
Cohen [IC 95%] = 0,08 [0,00 0,13]; p = 0,044). Por fim, houve uma diferença a favor da
série inicial no erro processual “não identifica certas relações” (1º ano = 15 [3,4%]; 2º ano
= 17 [8,3%]; ano = 22 [5,4%]; W de Cohen [IC 95%] = 0,08 [0,00 0,14], p = 0,029). Em
relação aos tamanhos de efeito dessas diferenças, suas magnitudes são desprezíveis. A
ausência de diferenças importantes entre os sexos era esperada, mas a ausência entre as
séries não, pois era esperado que a abordagem de aprendizagem dos estudantes fosse
substancialmente mais aprofundada à medida que eles avançassem em sua trajetória
escolar. É possível que a leitura de textos argumentativos que envolvem a identificação
do pensamento de um autor em determinado texto não seja algo comum no ambiente
escolar.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 38
4. Conclusão
A despeito da amostra deste estudo ser composta somente por estudantes de
ensino médio provenientes de uma escola federal de alto desempenho, os resultados
deste trabalho são bastante promissores e indicam importantes avanços do TAP-
Pensamento 2 para a medida das abordagens de aprendizagem. Há a perspectiva de que
o TAP-Pensamento 2 constitua uma metodologia de investigação promissora para a
teoria das abordagens de aprendizagem. O instrumento supera limitações típicas de seu
antecessor, o TAP-Pensamento, e inaugura novas possibilidades de investigação e
diagnóstico da aprendizagem, valendo-se da identificação de processos de erros
propostos para caracterizar a abordagem superficial do leitor ao identificar o pensamento
de um autor em determinado texto. Segue agora, pois, a necessidade de análises
subsequentes sobre o TAP-Pensamento 2 em novas amostras, assim como estudos que
investiguem sua validade estrutural e validade externa.
Agradecimentos
Cristiano Mauro Assis Gomes Bolsa de Produtividade do CNPq.
Declaração de Conflito de Interesse
Os autores declaram não haver conflito de interesse.
Sobre os Autores
Cristiano Mauro Assis Gomes Professor Titular do Departamento de Psicologia da
Universidade Federal de Minas Gerais. Coordenador do Laboratório de Investigação da
Arquitetura Cognitiva (LAICO). Pós-Doutor em Psicologia da Educação. Bolsista de
Produtividade do CNPq, Brasil. Pesquisas no campo da psicometria e psicologia da
educação. ORCID: 0000-0003-3939-5807; Página no ResearchGate:
https://www.researchgate.net/profile/Cristiano-Gomes
Diogo Ferreira do Nascimento Psicólogo do Colégio Técnico da Universidade Federal
de Minas Gerais. Mestre em Psicologia: Cognição e Comportamento/UFMG. Membro
pesquisador do Laboratório de Investigação da Arquitetura Cognitiva (LAICO).
Pesquisas no campo da psicologia da educação. ORCID: 0000-0002-5495-6652. Página no
ResearchGate: https://www.researchgate.net/profile/Diogo-Nascimento-3
Referências
Alves, A. F., Gomes, C. M. A., Martins, A., & Almeida, L. S. (2017). Cognitive performance
and academic achievement: How do family and school converge? European Journal
of Education and Psychology, 10(2), 49-56. https://doi.org/10.1016/j.ejeps.2017.07.001.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 39
Alves, F. A., Flores, R. P., Gomes, C. M. A., Golino, H. F. (2012). Preditores do rendimento
escolar: inteligência geral e crenças sobre ensino-aprendizagem. Revista E-PSI, 1,
97-117. Portuguese. https://revistaepsi.com/artigo/2012-ano2-volume1-artigo5/.
Alves, A. F., Gomes, C. M. A., Martins, A., & Almeida, L. S. (2016). Social and cultural
contexts change but intelligence persists as incisive to explain children's academic
achievement. PONTE: International Scientific Researches Journal, 72(9), 70-89.
https://doi.org/10.21506/j.ponte.2016.9.6.
Alves, A. F., Gomes, C. M. A., Martins, A., & Almeida, L. S. (2018). The structure of
intelligence in childhood: age and socio-familiar impact on cognitive
differentiation. Psychological Reports, 121(1), 79-92.
https://doi.org/10.1177/0033294117723019.
André, A. M., Gomes, C. M. A., Loureiro, C. M. V. (2016). Escalas Nordoff Robbins: uma
revisão bibliográfica. Percepta, 3(2), 117-131, 2016. Portuguese.
https://doi.org/10.34018/2318-891X.3(2)117-131.
André, A. M., Gomes, C. M. A., Loureiro, C. M. V. (2017). Equivalência de itens, semântica
e operacional da versão brasileira da Escala Nordoff Robbins de
Comunicabilidade Musical. Opus (Belo Horizonte. Online), 23(2), 197-215.
Portuguese.
http://www.anppom.com.br/revista/index.php/opus/article/view/459.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2018). Reliability inter-examiners
of the Nordoff Robbins Musical Communicativeness Scale Brazilian version. In
Davi Alves Mota & Tairone Nunes Magalhães, Proceedings of the 11th International
Conference of Students of Systematic Musicology. (pp. 101-105). Belo Horizonte, Minas
Gerais. https://doi.org/10.5281/zenodo.1345176.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2019). Tradução e validação das
Escalas Nordoff Robbins: “Relação criança terapeuta na experiência musical
coativa” e “Musicabilidade, formas de atividades, estágios e qualidades de
engajamento. In Regina Antunes Teixeira dos Santos & Marcos Nogueira (eds.),
Anais Completos do XIV Simpósio Internacional de Cognição e Artes Musicais. (pp. 486-
493). Campo Grande/MS. ISSN: 2236-4366.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2020a). Análise de confiabilidade
da Escala de Comunicabilidade Musical. Per Musi, 40, 1-12. e204016. Portuguese.
https://doi.org/10.35699/2317-6377.2020.12459.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2020b). Confiabilidade inter-
examinadores da Escala de Relação Criança-Terapeuta na Experiência Musical
Coativa para validação no contexto brasileiro. Revista Música Hodie, 20, e64243.
Portuguese. https://doi.org/10.5216/mh.v20.64243.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2020c). Confiabilidade inter-
examinadores da versão brasileira da Escala Nordoff Robbins de
Comunicabilidade Musical. In Javier Albornoz (org.), Estudos Latino-Americanos
sobre Música: vol II. (pp. 152-163). Curitiba: Artemis.
https://doi.org/10.37572/EdArt_13210092015.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 40
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2020d). Equivalência de itens,
semântica e operacional da “Escala de Musicabilidade: Formas de Atividade, Estágios e
Qualidades de Engajamento”. Orfeu, 5(2), 1-22. Portuguese.
https://doi.org/10.5965/2525530405022020e0010.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2020e). Equivalência de itens,
semântica e operacional da Escala Nordoff Robbins de Relação Criança-Terapeuta
na Experiência Musical Coativa. Percepta, 8(1), 125-144. Portuguese.
https://doi.org/1.34018/2318-891X.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2021a). Estudo de revisão da
utilização das escalas Nordoff Robbins: “Relação Criança-Terapeuta na
Experiência Musical Coativa” e “Musicabilidade: Formas de Atividade, Estágios e
Qualidades de Engajamento. Revista Música, 21(1), 443-468. Portuguese.
https://doi.org/10.11606/rm.v21i1.173943.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2021b). Measuring the structural
validity of two Nordoff-Robbins scales for a patient with autism. In Silvia Inés Del
Valle Navarro & Gustavo Adolfo Juarez, Ciências humanas: estudos para uma visão
holística da sociedade: vol I. (pp.51-66). Curitiba: Artemis.
https://doi.org/10.37572/EdArt_2706213786.
André, A. M. B., Gomes, C. M. A., & Loureiro, C. M. V. (2021c). Measuring the structural
validity of two Nordoff-Robbins scales for a patient with tuberous sclerosis. In
Francisca de Fátima dos Santos Freire (org.), Serviços e cuidados em saúde 3. (pp. 195-
212). Ponta Grossa: Atena. https://doi.org/10.22533/at.ed.00221180619.
Araújo, A. M., Gomes, C. M. A., Almeida, L. S., & Núñez, J. C. (2018). A latent profile
analysis of first-year university students’ academic expectations. Anales De
Psicología / Annals of Psychology, 35(1), 58-67.
https://doi.org/10.6018/analesps.35.1.299351.
Cardoso, C. O., Seabra, A. G., Gomes, C. M. A., & Fonseca, R. P. (2019). Program for the
neuropsychological stimulation of cognition in students: impact, effectiveness,
and transfer effect on student cognitive performance. Frontiers in Psychology, 10, 1-
16. https://doi.org/10.3389/fpsyg.2019.01784.
Casanova, J. R., Gomes, C. M. A., Bernardo, A. B., Núñez, J. C., & Almeida, L. S. (2021).
Dimensionality and reliability of a screening instrument for students at-risk of
dropping out from higher education. Studies in Educational Evaluation, 68, 100957.
https://doi.org/10.1016/j.stueduc.2020.100957.
Castillo-Diaz, M. A., Gomes, C. M. A. (2022). Monitoring and Intelligence as Predictors
of a Standardized Measure of General and Specific Higher Education
Achievement. Trends in Psychology. https://doi.org/10.1007/s43076-022-00160-z.
Costa, V. T., Gomes, C. M. A., Andrade, A. G. P., & Samulski, Di. M. (2012). Validação
das propriedades psicométricas do RESTQ-Coach na versão brasileira. Motriz:
Revista de Educação Física, 18(2), 218-232. Portuguese. https://doi.org/10.1590/S1980-
65742012000200002.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 41
Costa, B. C. G., Gomes, C. M. A., & Fleith, D. S. (2017). Validade da Escala de Cognições
Acadêmicas Autorreferentes: autoconceito, autoeficácia, autoestima e valor.
Avaliação Psicológica, 16(1), 87-97. Portuguese.
https://doi.org/10.15689/ap.2017.1601.10.
Dias, N. M., Gomes, C. M. A., Reppold, C. T., Fioravanti-Bastos, A., C., M., Pires, E. U.,
Carreiro, L. R. R., & Seabra, A. G. (2015). Investigação da estrutura e composição
das funções executivas: análise de modelos teóricos. Psicologia: teoria e prática, 17(2),
140-152. Portuguese. https://doi.org/10.15348/1980-6906/psicologia.v17n2p140-
152.
Diaz, M. A. C., & Gomes, C. M. A. (2021a). Presenting the Meta-Performance Test, a
metacognitive battery based on performance. International Journal of Educational
Methodology, 7(2), 289-303. https://doi.org/10.12973/ijem.7.2.289.
Diaz, M. A. C., & Gomes, C. M. A. (2021b). Validade estrutural do Meta-Texto: evidências
que permitem repensar os componentes metacognitivos. Conference. 10 Congresso
Brasileiro de Avaliação Psicológica. https://doi.org/10.13140/RG.2.2.32944.48642.
Ferreira, M. G., & Gomes, C. M. A. (2017). Intraindividual analysis of the Zarit Burden
Interview: a Brazilian case study. Alzheimers & Dementia, 13, P1163-P1164.
https://doi.org/0.1016/j.jalz.2017.06.1710.
Fleith, D. S., Almeida, L. S., Marinho-Araujo, C. M., Gomes, C. M. A., Bisinoto, C., &
Rabelo, M. L. (2020). Validity evidence of a scale on academic expectations for
higher education. Paidéia, 30, e3010. https://doi.org/10.1590/1982-4327e3010.
Fleith, D. S., & Gomes, C. M. A. (2019). Students' assessment of teaching practices for
creativity in graduate programs. Avaliação Psicológica, 18(3), 306-315.
https://doi.org/10.15689/ap.2019.1803.15579.10.
Fleith, D, S., Gomes, C. M. A., Marinho-Araujo, C. M., & Almeida, L. S. (2020).
Expectativas de sucesso profissional de ingressantes na educação superior: estudo
comparativo. Avaliação Psicológica, 19(3), 223-231. Portuguese.
https://doi.org/10.15689/ap.2020.1903.17412.01.
Gauer, G., Gomes, C. M. A., & Haase V. G. (2010). Neuropsicometria: Modelo clássico e
análise de Rasch. In Avaliação Neuropsicológica, (pp. 22-30). Porto Alegre: Artmed,
2010. ISBN-10: 8536322101.
Golino, H. F., & Gomes, C. M. A. (2011). Preliminary internal validity evidences of two
Brazilian Metacognitive Tests. International Journal of Testing, 26, 11-12.
https://www.intestcom.org/files/ti26.pdf.
Golino, H. F., & Gomes, C. M. A. (2012). The Structural validity of the Inductive
Reasoning Developmental Test for the measurement of developmental stages.
International Journal of Testing, 27, 10-11.
https://www.researchgate.net/publication/269985854_The_Structural_Validity_of
_the_Inductive_Reasoning_Developmental_Test_for_the_Measurement_of_Deve
lopmental_Stages.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 42
Golino, H. F., & Gomes, C. M. A. (2014a). Four Machine Learning methods to predict
academic achievement of college students: a comparison study. Revista E-Psi, 1, 68-
101. https://revistaepsi.com/artigo/2014-ano4-volume1-artigo4/.
Golino, H. F., & Gomes, C. M. A. (2014b). Psychology data from the “BAFACALO project:
The Brazilian Intelligence Battery based on two state-of-the-art models Carroll’s
Model and the CHC model”. Journal of Open Psychology Data, 2(1), p.e6.
https://doi.org/10.5334/jopd.af.
Golino, H. F., & Gomes, C. M. A. (2014c). Visualizing random forest’s prediction results.
Psychology, 5, 2084-2098. https://doi.org/10.4236/psych.2014.519211.
Golino, H. F., & Gomes, C. M. A. (2015a). Aprendendo a ler a expressão de invariância
dos parâmetros. In Hudson F. Golino et al., Psicometria contemporânea:
compreendendo os Modelos Rasch (pp. 47-80). São Paulo: Casa do Psicólogo. ISBN:
97885845989.
Golino, H. F., & Gomes, C. M. A. (2015b). Avançando na compreensão da invariância dos
parâmetros: probabilidade e suas características. In Hudson F. Golino et al.,
Psicometria contemporânea: compreendendo os Modelos Rasch (pp. 81-107). São Paulo:
Casa do Psicólogo. ISBN: 97885845989.
Golino, H. F., & Gomes, C. M. A. (2015c). Investigando estágios de desenvolvimento do
raciocínio indutivo usando a análise fatorial confirmatória, o modelo logístico
simples de Rasch e o modelo de teste logístico linear (Rasch estendido). In Hudson
F. Golino et al., Psicometria contemporânea: compreendendo os Modelos Rasch (pp. 283-
338). São Paulo: Casa do Psicólogo. ISBN: 97885845989.
Golino, H. F., & Gomes, C. M. A. (2015d). O modelo logístico simples de Rasch para dados
dicotômicos. In Hudson F. Golino et al., Psicometria contemporânea: compreendendo
os Modelos Rasch (pp. 111-154). São Paulo: Casa do Psicólogo. ISBN: 97885845989.
Golino, H. F., & Gomes, C. M. A. (2015e). Teoria da medida e o modelo Rasch. In Hudson
F. Golino et al., Psicometria contemporânea: compreendendo os Modelos Rasch (pp. 13-
46). São Paulo: Casa do Psicólogo. ISBN: 97885845989.
Golino, H. F., & Gomes, C. M. A. (2016). Random forest as an imputation method for
education and psychology research: its impact on item fit and difficulty of the
Rasch model. International Journal of Research & Method in Education, 39(4), 401-421.
https://doi.org/10.1080/1743727X.2016.1168798.
Golino, H. F. & Gomes, C. M. A. (2019) TDRI: Teste de Desenvolvimento do Raciocínio
Indutivo. São Paulo: Hogrefe.
Golino, H. F., Gomes, C. M. A., Amantes, A., & Coelho, G. (2015). Psicometria
contemporânea: compreendendo os Modelos Rasch (1ªth ed., p. 416). São Paulo: Casa do
Psicólogo. ISBN: 97885845989.
Golino, H. F., Gomes, C. M. A., & Andrade, D. (2014). Predicting academic achievement
of high-school students using machine learning. Psychology, 5, 2046-2057.
https://doi.org/10.4236/psych.2014.518207.
Golino, H. F., Gomes. C. M. A., Commons, M. L., & Miller, P. M. (2014). The construction
and validation of a developmental test for stage identification: Two exploratory
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 43
studies. Behavioral Development Bulletin, 19(3), 37-54.
https://doi.org/10.1037/h0100589.
Golino, H. F., Gomes, C. M. A., & Peres, A. J. S. (2021). Creating an objective measurement
for the ENEM: an analysis using the Rasch model. Psicologia: Teoria e Prática, 23(1),
1-21. https://doi.org/10.5935/1980-6906/ePTPPA12625.
Gomes, C. M. A. (2002). Feuerstein e a construção mediada do conhecimento. Porto Alegre:
Artmed Editora.
Gomes, C. M. A. (2005). Uma análise dos fatores cognitivos mensurados pelo Exame Nacional
do Ensino Médio (ENEM). [Tese de Doutorado, Universidade Federal de Minas
Gerais]. http://hdl.handle.net/1843/FAEC-85RJNN.
Gomes, C. M. A. (2007a). Apostando no desenvolvimento da inteligência; em busca de um novo
currículo educacional para o desenvolvimento do pensamento humano. Rio de Janeiro:
Lamparina.
Gomes, C. M. A. (2007b). Softwares educacionais podem ser instrumentos psicológicos.
Psicologia Escolar e Educacional, 11(2), 391-401. Portuguese.
https://doi.org/10.1590/S1413-85572007000200016.
Gomes, C. M. A. (2010a). Avaliando a avaliação escolar: notas escolares e inteligência
fluida. Psicologia em Estudo, 15(4), 841-849. Portuguese.
https://doi.org/10.1590/S1413-73722010000400020.
Gomes, C. M. A. (2010b). Estrutura fatorial da Bateria de Fatores Cognitivos de Alta-
Ordem (BaFaCalo). Avaliação Psicológica, 9(3), 449-459. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1677-
04712010000300011&lng=pt.
Gomes, C. M. A. (2010c). Perfis de estudantes e a relação entre abordagens de
aprendizagem e rendimento Escolar. Psico (PUCRS. Online), 41(4), 503-509.
Portuguese.
http://revistaseletronicas.pucrs.br/ojs/index.php/revistapsico/article/view/6336.
Gomes, C. M. A. (2011a). Abordagem profunda e abordagem superficial à aprendizagem:
diferentes perspectivas do rendimento escolar. Psicologia: Reflexão e Crítica, 24(3),
438-447. Portuguese. https://doi.org/10.1590/S0102-79722011000300004.
Gomes, C. M. A. (2011b). Validade do conjunto de testes da habilidade de memória de
curto-prazo (CTMC). Estudos de Psicologia (Natal), 16(3), 235-242. Portuguese.
https://doi.org/10.1590/S1413-294X2011000300005.
Gomes, C. M. A. (2012a). A estrutura fatorial do inventário de características da
personalidade. Estudos de Psicologia (Campinas), 29(2), 209-220.
https://doi.org/10.1590/S0103-166X2012000200007.
Gomes, C. M. A. (2012b). Validade de construto do conjunto de testes de inteligência
cristalizada (CTIC) da bateria de fatores cognitivos de alta-ordem (BaFaCAlO).
Gerais: Revista Interinstitucional de Psicologia, 5(2), 294-316. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1983-
82202012000200009&lng=pt&tlng=pt.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 44
Gomes, C. M. A. (2013). A construção de uma medida em abordagens de aprendizagem.
Psico (PUCRS. Online), 44(2), 193-203. Portuguese.
http://revistaseletronicas.pucrs.br/ojs/index.php/revistapsico/article/view/11371.
Gomes, C. M. A. (2020a). Análises estatísticas para estudos de intervenção. In M. Mansur-
Alves & J. B. Lopes-Silva, Intervenção cognitiva: dos conceitos às práticas baseadas em
evidências para diferentes aplicações (pp. 93-107). Belo Horizonte: T.Ser.
Gomes, C. M. A. (2020b). Programa de Enriquecimento Instrumental: evidências de
eficácia para intervenção cognitiva. In M. Mansur-Alves & J. B. Lopes-Silva,
Intervenção cognitiva: dos conceitos às práticas baseadas em evidências para diferentes
aplicações (pp. 621-639). Belo Horizonte: T.Ser.
Gomes, C. M. A. (2021a). Apresentação de uma metodologia para criação de provas
metacognitivas. Conference. XVI Congresso Internacional Galego-Português de
Psicopedagogia. https://doi.org/10.13140/RG.2.2.33129.62569.
Gomes, C. M. A. (2021b). Avaliação educacional focada no processo: apresentando o teste
SLAT-Thinking 2. Conference. XVI Congresso Internacional Galego-Português de
Psicopedagogia. https://doi.org/10.13140/RG.2.2.24903.42408.
Gomes, C. M. A. (2022a). Apresentação da Escala de Interesse em Pensar Reflexivamente.
Preprint. https://doi.org/10.13140/RG.2.2.35149.51684.
Gomes, C. M. A. (2022b). Apresentação do Teste Abordagem-em-Processo Versão 2.
Preprint. https://doi.org/10.13140/RG.2.2.29156.24962.
Gomes, C. M. A. (2022c). Projeto de Acesso Aberto: Escala de Abordagens de Aprendizagem
(EABAP). Preprint. https://doi.org/10.31219/osf.io/4edy7.
Gomes, C. M. A., & Almeida, L. S. (2017). Advocating the broad use of the decision tree
method in education. Practical Assessment, Research & Evaluation, 22(10), 1-10.
https://pareonline.net/getvn.asp?v=22&n=10.
Gomes, C. M. A., Almeida, L. S., & Núñez, J. C. (2017). Rationale and applicability of
exploratory structural equation modeling (ESEM) in psychoeducational contexts.
Psicothema, 29(3), 396-401. https://doi.org/10.7334/psicothema2016.369.
Gomes, C.M.A., Amantes, A., & Jelihovschi, E.G. (2020). Applying the regression tree
method to predict students’ science achievement. Trends in Psychology, 28, 99-117.
https://doi.org/10.9788/s43076-019-00002-5.
Gomes, C. M. A, Araujo, J., & Castillo-Díaz, M.A. (2021). Testing the Invariance of the
Metacognitive Monitoring Test. Psico-USF, 26(4), 685-696.
https://doi.org/10.1590/1413-82712021260407.
Gomes, C. M. A., Araujo, J., & Jelihovschi, E. G. (2020). Approaches to learning in the non-
academic context: construct validity of Learning Approaches Test in Video Game
(LAT-Video Game). International Journal of Development Research, 10(11), 41842-
41849. https://doi.org/10.37118/ijdr.20350.11.2020.
Gomes, C. M. A., Araujo, J., & Jelihovschi, E. G. (2022). The current assessment of the
student’s academic achievement is a big mistake. International Journal of
Development Research, 12(03), 5479554798.
https://doi.org/10.37118/ijdr.24160.03.2022.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 45
Gomes, C. M. A., Araujo, J., Lima, I. P. C., Chaves, V. N. B., & Golino, H. F. (2021).
Inductive Reasoning Developmental Test Second Revision (TDRI-SR): content
validity. In Ezequiel Martins Ferreira (org.), A pesquisa em psicologia: contribuições
para o debate metodológico. (pp. 36-49). Ponta Grossa: Atena.
https://doi.org/10.22533/at.ed.1692115124.
Gomes, C. M. A., Araujo, J., Nascimento, E., & Jelihovschi, E. (2018). Routine
Psychological Testing of the Individual Is Not Valid. Psychological Reports, 122(4),
1576-1593. https://doi.org/10.1177/0033294118785636.
Gomes, C. M. A., & Borges, O. N. (2007). Validação do modelo de inteligência de Carroll
em uma amostra brasileira. Avaliação Psicológica, 6(2), 167-179. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1677-
04712007000200007&lng=en&tlng=pt.
Gomes, C. M. A., & Borges, O. N. (2008a). Avaliação da validade e fidedignidade do
instrumento crenças de estudantes sobre ensino-aprendizagem (CrEA). Ciências &
Cognição (UFRJ), 13(3), 37-50. Portuguese.
http://www.cienciasecognicao.org/revista/index.php/cec/article/view/60.
Gomes, C. M. A., & Borges, O. (2008b). Limite da validade de um instrumento de
avaliação docente. Avaliação Psicológica, 7(3), 391-401. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1677-
04712008000300011&lng=pt&tlng=pt.
Gomes, C. M. A., & Borges, O. (2008c). Qualidades psicométricas de um conjunto de 45
testes cognitivos. Fractal: Revista de Psicologia, 20(1), 195-207. Portuguese.
https://doi.org/10.1590/S1984-02922008000100019.
Gomes, C. M. A. & Borges, O. N. (2009a). O ENEM é uma avaliação educacional
construtivista? Um estudo de validade de construto. Estudos em Avaliação
Educacional, 20(42), 73-88. Portuguese. https://doi.org/10.18222/eae204220092060.
Gomes, C. M. A., & Borges, O. N. (2009b). Propriedades psicométricas do conjunto de
testes da habilidade visuo espacial. PsicoUSF, 14(1), 19-34. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1413-
82712009000100004&lng=pt&tlng=pt.
Gomes, C. M. A., & Borges, O. (2009c). Qualidades psicométricas do conjunto de testes
de inteligência fluida. Avaliação Psicológica, 8(1), 17-32. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1677-
04712009000100003&lng=pt&tlng=pt.
Gomes, C. M. A., Carneiro, I. J. P., & Soares, J. M. T. (2008). Aspectos processuais de
programas de educação baseados no ensino do pensamento. In Anais Completos do
IV Colóquio Franco Brasileiro de Filosofia da Educação, UERJ (pp. 1-19).
Gomes, C. M. A., de Araújo, J., Ferreira, M. G., & Golino, H. F. (2014). The validity of the
Cattel-Horn-Carroll model on the intraindividual approach. Behavioral
Development Bulletin, 19(4), 22-30. https://doi.org/10.1037/h0101078.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 46
Gomes, C. M. A., Farias, H. B., Araujo, J., & Jelihovschi, E. G. (2021). Pruning trees,
complexity cost may not be a good approach: initial evidence. Preprint OSF.
http://doi.org/10.31219/osf.io/4xcwm.
Gomes, C. M. A., Farias, H. B., & Jelihovschi, E. G. (2022). Approaches to learning does
matter to predict academic achievement. Revista de Psicología, 40(2), 905-933.
https://doi.org/10.18800/psico.202202.010
Gomes, C. M. A., Fleith, D. S., Marinho-Araujo, C. M., & Rabelo, M. L. (2020). Predictors
of students’ mathematics achievement in secondary education. Psicologia: Teoria e
Pesquisa, 36, e3638. https://doi.org/10.1590/0102.3772e3638.
Gomes, C. M. A., & Gjikuria, J. (2017). Comparing the ESEM and CFA approaches to
analyze the Big Five factors. Avaliação Psicológica, 16(3), 261-267.
https://doi.org/10.15689/ap.2017.1603.12118.
Gomes, C. M. A., & Gjikuria, E. (2018). Structural Validity of the School Aspirations
Questionnaire (SAQ). Psicologia: Teoria e Pesquisa, 34, e3438.
https://doi.org/10.1590/0102.3772e3438.
Gomes, C. M. A., & Golino, H. F. (2012a). O que a inteligência prediz: diferenças
individuais ou diferenças no desenvolvimento acadêmico? Psicologia: teoria e
prática, 14(1), 126-139. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S1516-
36872012000100010&lng=pt&tlng=pt.
Gomes, C. M. A., & Golino, H. F. (2012b). Relações hierárquicas entre os traços amplos
do Big Five. Psicologia: Reflexão e Crítica, 25(3), 445-456. Portuguese.
https://doi.org/10.1590/S0102-79722012000300004
Gomes, C. M. A., & Golino, H. F. (2012c). Validade incremental da Escala de Abordagens
de Aprendizagem (EABAP). Psicologia: Reflexão e Crítica, 25(4), 400-410.
Portuguese. https://doi.org/10.1590/S0102-79722012000400001.
Gomes, C. M. A., & Golino, H. F. (2014). Self-reports on students' learning processes are
academic metacognitive knowledge. Psicologia: Reflexão e Crítica, 27(3), 472-480.
https://doi.org/10.1590/1678-7153.201427307.
Gomes, C. M. A., & Golino, H. F., (2015a). A medida de habilidades cognitivas amplas da
Bateria de Fatores Cognitivos de Alta Ordem (BAFACALO): empregando o
modelo Rasch bifatorial. In Hudson F. Golino et al., Psicometria contemporânea:
compreendendo os Modelos Rasch (pp. 361-385). São Paulo: Casa do Psicólogo. ISBN:
97885845989.
Gomes, C. M. A., & Golino, H. (2015b). Factor retention in the intra-individual approach:
Proposition of a triangulation strategy. Avaliação Psicológica, 14(2), 273-279.
https://doi.org/10.15689/ap.2015.1402.12.
Gomes, C. M. A., Golino, H. F., & Costa, B. C. G. (2013). Dynamic system approach in
psychology: proposition and application in the study of emotion, appraisal and
cognitive achievement. Problems of Psychology in the 21st Century, 6, 15-28.
http://www.journals.indexcopernicus.com/abstracted.php?level=5&icid=1059487.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 47
Gomes, C. M. A., Golino, H. F., & Menezes, I. G. (2014). Predicting School Achievement
Rather than Intelligence: Does Metacognition Matter? Psychology, 5, 1095-1110.
https://doi.org/10.4236/psych.2014.59122.
Gomes, C. M. A., Golino, H. F., & Peres, A. J. S. (2016). Investigando a validade estrutural
das competências do ENEM: quatro domínios correlacionados ou um modelo
bifatorial. Boletim na Medida (INEP-Ministério da Educação), 5(10), 33-30.
Portuguese.
http://portal.inep.gov.br/documents/186968/494037/BOLETIM+NA+MEDIDA+-
+N%C2%BA+10/4b8e3d73-d95d-4815-866c-ac2298dff0bd?version=1.1.
Gomes, C. M. A. Golino, H. F., & Peres, A. J. S. (2018). Análise da fidedignidade composta
dos escores do enem por meio da análise fatorial de itens. European Journal of
Education Studies, 5(8), 331-344. Portuguese.
https://doi.org/10.5281/zenodo.2527904.
Gomes, C. M. A., Golino, H. F., & Peres, A. J. S. (2020). Fidedignidade dos escores do
Exame Nacional do Ensino Médio (Enem). Psico (RS), 54(2), 1-10. Portuguese.
https://doi.org/10.15448/1980-8623.2020.2.31145.
Gomes, C. M. A., Golino, H. F., & Peres, A. J. S. (2021). Evidências desfavoráveis ao
postulado de cargas fatoriais simples do Exame Nacional do Ensino Médio
(ENEM). Avaliação Psicológica, 20(3). Portuguese.
http://dx.doi.org/10.15689/ap.2021.2003.15777.05.
Gomes, C. M. A., Golino, H. F., Pinheiro, C. A. R., Miranda, G. R., & Soares, J. M. T. (2011).
Validação da Escala de Abordagens de Aprendizagem (EABAP) em uma amostra
Brasileira. Psicologia: Reflexão e Crítica, 24(1), 19-27. Portuguese.
https://doi.org/10.1590/S0102-79722011000100004.
Gomes, C. M. A., Golino, H. F., Santos, M. T., & Ferreira, M. G. (2014). Formal-Logic
Development Program: Effects on Fluid Intelligence and on Inductive Reasoning
Stages. British Journal of Education, Society & Behavioural Science, 4(9), 1234-1248.
http://www.sciencedomain.org/review-history.php?iid=488&id=21&aid=4724.
Gomes, C. M. A., & Jelihovschi, E. (2016). Proposing a new approach and a rigorous cut-
off value for identifying precognition. Measurement, 93, 117-125.
https://doi.org/10.1016/j.measurement.2016.06.066.
Gomes, C. M. A., & Jelihovschi, E. (2019). Presenting the regression tree method and its
application in a large-scale educational dataset. International Journal of Research &
Method in Education 43(2), 201-221. https://doi.org/10.1080/1743727X.2019.1654992.
Gomes, C. M. A., Jelihovschi, E., & Araujo, J. (2022a). Presentation of the Approach-In-
Process Test (version 2). European Journal of Education and Pedagogy, 3(4), 81-91.
http://dx.doi.org/10.24018/ejedu.2022.3.4.402
Gomes, C. M. A., Jelihovschi, E., & Araujo, J. (2022b). The current assessment of the
student’s academic achievement is a big mistake. International Journal of
Development Research, 12(3), 54795-54798.
https://doi.org/10.37118/ijdr.24160.03.2022
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 48
Gomes, C. M. A., Lemos, G. C., & Jelihovschi, E. G. (2020). Comparing the predictive
power of the CART and CTREE algorithms. Avaliação Psicológica, 19(1), 87-96.
https://doi.org/10.15689/ap.2020.1901.17737.10.
Gomes, C. M. A., Lemos, G. C., & Jelihovschi, E. G. (2021). The reasons why the regression
tree method is more suitable than general linear model to analyze complex
educational datasets. Revista Portuguesa de Educação, 34(2), 42-63.
http://doi.org/10.21814/rpe.18044.
Gomes, C. M. A, & Linhares. (2018). Investigação da validade de conteúdo do TAP-
Pensamento. Pôster. I Encontro Anual da Rede Nacional de Ciência para Educação
(CPE). https://doi.org/10.13140/RG.2.2.31110.40006.
Gomes, C. M. A., Linhares, I. S., Jelihovschi, E. G., & Rodrigues, M. N. S. (2021).
Introducing rationality and content validity of SLAT-Thinking. International
Journal of Development Research, 11(1), 43264-43272.
https://doi.org/10.37118/ijdr.20586.01.2021.
Gomes, C. M. A., & Marques, E. L. L. (2016). Evidências de validade dos estilos de
pensamento executivo, legislativo e judiciário. Avaliação Psicológica, 15(3), 327-336.
Portuguese. https://doi.org/10.15689/ap.2016.1503.05.
Gomes, C. M. A., Marques, E. L. L., & Golino, H. F. (2014). Validade Incremental dos
Estilos Legislativo, Executivo e Judiciário em Relação ao Rendimento Escolar.
Revista E-Psi, 2, 31-46. Portuguese. https://revistaepsi.com/artigo/2013-2014-ano3-
volume2-artigo3/.
Gomes, C. M. A., & Nascimento, D. F. (2021a). A medida da habilidade de fluência do modelo
CHC: apresentando o Teste de Fluência Ideativa 2 da Bateria de Fatores Cognitivos de
Alta-Ordem (BAFACALO). Preprint. https://doi.org/10.13140/RG.2.2.35726.28481/1.
Gomes, C. M. A., & Nascimento, D. F. (2021b). Acesso aberto ao Teste de Fluência Figural da
Bateria de Fatores Cognitivos de Alta-Ordem (BAFACALO) como medida da habilidade
ampla de fluência do modelo CHC de inteligência. Preprint.
https://doi.org/10.13140/RG.2.2.15593.62564/1.
Gomes, C. M. A., & Nascimento, D. F. (2021c). Acesso aberto e gratuito ao Conjunto de Testes
de Inteligência Fluida: Teste de Raciocínio Geral da Bateria de Fatores Cognitivos de Alta-
Ordem (BAFACALO). Preprint. https://doi.org/10.13140/RG.2.2.30509.61921/1.
Gomes, C. M. A., & Nascimento, D. F. (2021d). Acesso aberto e gratuito ao Teste de Fluência
Ideativa 1 da BAFACALO. Preprint. https://doi.org/10.13140/RG.2.2.24821.09442/3.
Gomes, C. M. A., & Nascimento, D. F. (2021e). Apresentando o Teste de Flexibilidade de
Fechamento da BAFACALO. Preprint. https://doi.org/10.13140/RG.2.2.31920.28164.
Gomes, C. M. A., & Nascimento, D. F. (2021f). Disponibilizando de forma gratuita e aberta o
Teste de Memória Associativa 1 da Bateria de Fatores Cognitivos de Alta-Ordem
(BAFACALO). Preprint. https://doi.org/10.13140/RG.2.2.29964.03201/1.
Gomes, C. M. A., & Nascimento, D. F. (2021g). Disponibilizando de forma gratuita e aberta o
Teste de Velocidade Numérica da BAFACALO. Preprint.
https://doi.org/10.13140/RG.2.2.24114.94407/1.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 49
Gomes, C. M. A. & Nascimento, D. F. (2021h). Evidências de validade do Teste de
Abordagens de Aprendizagem: Identificação do Pensamento contido em Textos 2.
Anais do XVI Congresso Internacional Galego-Português de Psicopedagogia, 1 a 3 de
Setembro de 2021, UMinho, Braga, Portugal (pp. 2426-2438).
Gomes, C. M. A., & Nascimento, D. F. (2021i). Medidas de inteligência cristalizada:
disponibilizando o Teste de Compreensão Verbal 2 da Bateria de Fatores Cognitivos de
Alta-Ordem (BAFACALO). Preprint. https://doi.org/10.13140/RG.2.2.36085.09447/1.
Gomes, C. M. A., & Nascimento, D. F. (2021j). Medindo a habilidade de rapidez cognitiva do
modelo CHC: apresentando o Teste de Velocidade Perceptiva 1 da BAFACALO. Preprint.
https://doi.org/10.13140/RG.2.2.28564.83848/1.
Gomes, C. M. A., & Nascimento, D. F. (2021k). Presenting SLAT-Thinking Second Version
and its content validity. International Journal of Development Research, 11(3), 45590-
45596. https://doi.org/10.37118/ijdr.21368.03.2021.
Gomes, C. M. A., & Nascimento, D. F. (2021l). Projeto de acesso aberto e gratuito à Bateria de
Fatores Cognitivos de Alta-Ordem (BAFACALO): o Teste de Compreensão Verbal 1 do
Conjunto de Testes de Inteligência Cristalizada. Preprint.
https://doi.org/10.13140/RG.2.2.22663.32165/1.
Gomes, C. M. A., & Nascimento, D. F. (2021m). Projeto de acesso aberto e gratuito aos testes
do LAICO: Teste de Raciocínio Lógico da Bateria de Fatores Cognitivos de Alta-Ordem
(BAFACALO). Preprint. https://doi.org/10.13140/RG.2.2.25476.45445/1.
Gomes, C. M. A., & Nascimento, D. F. (2021n). Projeto de acesso aos testes de inteligência da
BAFACALO: Teste de Compreensão Verbal 3. Preprint.
https://doi.org/10.13140/RG.2.2.10499.84001/2.
Gomes, C. M. A., & Nascimento, D. F. (2021o). Projeto de acesso da BAFACALO: Teste de
Memória Associativa 2. Preprint. https://doi.org/10.13140/RG.2.2.23253.14565/1.
Gomes, C. M. A., & Nascimento, D. F. (2021p). Teste de Memória Visual da Bateria de Fatores
Cognitivos de Alta-Ordem (BAFACALO). Preprint.
https://doi.org/10.13140/RG.2.2.33319.47529.
Gomes, C. M. A., & Nascimento, D. F., & Araujo, J. (2021a). Acesso aberto ao Teste de
Dobraduras (VZ) da BAFACALO. Preprint.
https://doi.org/10.13140/RG.2.2.21853.95201/2.
Gomes, C. M. A., Nascimento, D. F., & Araujo, J. (2021b). Medindo a inteligência fluida: o
Teste de Indução da Bateria de Fatores Cognitivos de Alta-Ordem (BAFACALO).
Preprint. https://doi.org/10.13140/RG.2.2.17087.84641/3.
Gomes, C. M. A., & Nascimento, D. F., & Araujo, J. (2021c). Projeto de testes gratuitos e
abertos do LAICO: Teste de Velocidade Perceptiva 3 da BAFACALO. Preprint. doi:
10.13140/RG.2.2.36278.42563/2.
Gomes, C. M. A., & Nascimento, D. F., & Araujo, J. (2021d). Teste de Velocidade Perceptiva
2 da Bateria de Fatores Cognitivos de Alta-Ordem (BAFACALO): disponibilização aberta
e gratuita aos testes de medida de rapidez cognitiva do LAICO. Preprint.
https://doi.org/10.13140/RG.2.2.29567.53928/1.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 50
Gomes, C. M. A., Nascimento, E., & Peres, A. J. S. (2019). Investigating causal relations in
personality by combining path analysis and Search algorithms. Poster. 3rd World
Conference on Personality, World Association for Personality Psychology (WAPP),
Hanoi, Vietnam.
Gomes, C. M. A., Quadros, J. S., Araujo, J., & Jelihovschi, E. G. (2020). Measuring students’
learning approaches through achievement: structural validity of SLAT-Thinking.
Estudos de Psicologia, 25(1), 33-43. https://doi.org/10.22491/1678-4669.20200004.
Gomes, C. M. A., & Rodrigues, M. N. S. (2021). Teste Abordagem-em-Processo. Preprint.
https://doi.org/10.13140/RG.2.2.17602.71363/2.
Gomes, C. M. A., & Rozenberg, M. P. (2021) Bi-factor hierarchical model of
procrastination: presentation and initial evidence of validity. In Ezequiel Martins
Ferreira (org.), A pesquisa em psicologia: contribuições para o debate metodológico 2. (pp.
137-156). Ponta Grossa: Atena. https://doi.org/10.22533/at.ed.30321151215.
Gomes, C. M. A., & Valentini, F. (2019). Time series in educational psychology:
application in the study of cognitive achievement. European Journal of Education
Studies, 6(8), 214-229. https://doi.org/10.5281/zenodo.3551953.
Haase, V. G., Gauer, G., & Gomes, C. M. A. (2010). Neuropsicometria: modelos
nomotético e ideográfico. In Leandro Malloy-Diniz et al., Avaliação
Neuropsicológica, (pp. 31-37). Porto Alegre: Artmed. ISBN-10: 8536322101.
Jelihovschi, E. G., & Gomes, C. M. A. (2019). Proposing an achievement simulation
methodology to allow the estimation of individual in clinical testing context.
Revista Brasileira de Biometria, 37(4), 1-10. https://doi.org/10.28951/rbb.v37i4.423.
Laros, J. A., Valentini, F., Gomes, C. M. A., & Andrade, J. M. (2014). Modelos de
inteligência. In A. G. Seabra, J. A. Laros, E. C. Macedo & N. Abreu (Eds.),
Inteligência e funções executivas:Avanços e desafios para a avaliação neuropsicológica (pp.
17-38). São Paulo: Editora Memnon.
Mansur-Alves, M., Gomes, C. M. A., Peixoto, C. B., Bocardi, M. B., Diniz, M. L. N., Freitas,
S. K. P., Pereira, E. G., Alvares-Teodoro, J., Ribeiro, P. C. C., Teodoro, M. L. M.
(2021). A longitudinal model for psychological distress in the COVID-19 crisis
among Brazilian graduate students. PSICO(RS), 52(3), 1-15.
http://dx.doi.org/10.15448/1980-8623.2021.3.41332.
Martins, A. A., Gomes, C. M. A., Alves, A. F., Almeida, L. S. (2018). The structure of
intelligence in childhood: age and socio-familiar impact on cognitive
differentiation. Psychological Reports, 121(1), 79-92.
https://doi.org/10.1177/0033294117723019.
Matos, D. A. S., Brown, G. T. L., & Gomes, C. M. A. (2019). Bifactor invariance analysis of
student conceptions of assessment inventory. Psico-USF, 24(4), 737-750.
https://doi.org/10.1590/1413-82712019240411.
Mecca, T. P., Dias, N. M., Reppold, C. T., Muniz, M., Gomes, C. M. A., Fioravanti-Bastos,
A., C., M., Yates, D. B., Carreiro, L. R. R., & Macedo, E. C. (2015). Funcionamento
adaptativo: panorama nacional e avaliação com o adaptive behavior assessment
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 51
system. Psicologia: Teoria e Prática, 17(2), 107-122. https://doi.org/10.15348/1980-
6906/psicologia.v17n2p107-122.
Monteiro, S., Almeida, L. S., Gomes, C. M. A., & Sinval, J. (2020). Employability profiles
of higher education graduates: a person-oriented approach. Studies in Higher
Education, 47(3), 499-512. https://doi.org/10.1080/03075079.2020.1761785.
Moura, M. D. G., Gomes, C. M. A., Blanc, S. L., Mesquita, R. A., & Ferreira, E. F. (2014).
Development of questionnaire on dentists? knowledge of HIV/AIDS. Arquivos em
Odontologia (UFMG. Online), 50(1), 6-12, 2014.
https://doi.org/10.7308/aodontol/2014.50.1.01.
Muniz, M., Gomes, C. M. A., & Pasian, S. R. (2016). Factor structure of Raven's Coloured
Progressive Matrices. Psico-USF, 21(2), 259-272. https://doi.org/10.1590/1413-
82712016210204.
Pazeto, T. C. B., Dias, N. M., Gomes, C. M. A., & Seabra, A. G. (2019). Prediction of
arithmetic competence: role of cognitive abilities, socioeconomic variables and the
perception of the teacher in early childhood education. Estudos de Psicologia, 24(3),
225-236. https://doi.org/10.22491/1678-4669.20190024.
Pazeto, T. C. B., Dias. N. M., Gomes, C. M. A., & Seabra, A. G. (2020). Prediction of reading
and writing in elementary education through early childhood education.
Psicologia: Ciência e Profissão, 40, e205497, 1-14. https://doi.org/10.1590/1982-
3703003205497.
Pereira, B. L. S., Golino, M. T. S., & Gomes, C. M. A. (2019). Investigando os efeitos do
Programa de Enriquecimento Instrumental Básico em um estudo de caso único.
European Journal of Education Studies, 6(7), 35-52. Portuguese.
https://doi.org/10.5281/zenodo.3477577.
Pinheiro, C. A. R., Gomes, C. M. A., & Braga, A. G. (2009). Construção e validação do
Inventário dos Adjetivos de Personalidade - 50 (IAP-50) [Resumo]. In Anais do IV
Congresso Brasileiro de Avaliação Psicológica e XIV Conferência Internacional de
Avaliação Psicológica: Formas e Contextos (p. 182). Campinas, SP: Instituto Brasileiro
de Avaliação Psicológica.
Pires, A. A. M., & Gomes, C. M. A. (2017). Three mistaken procedures in the elaboration
of school exams: explicitness and discussion. PONTE International Scientific
Researches Journal, 73(3), 1-14. https://doi.org/10.21506/j.ponte.2017.3.1.
Pires, A. A. M., & Gomes, C. M. A. (2018). Proposing a method to create metacognitive
school exams. European Journal of Education Studies, 5(8), 119-142.
https://doi.org/10.5281/zenodo.2313538.
Reis, C. P., Morales, J. C. P., Gomes, C. M. A., Pereira, F. A. A., & Ibáñez, S. J. (2021).
Construct validation of a new instrument to measure declarative tactical
knowledge in basketball. Perceptual and Motor Skills, 128(4), 1712-1729.
https://doi.org/10.1177/00315125211016247.
Reppold, C. T., Gomes, C. M. A., Seabra, A. G., Muniz, M., Valentini, F., & Laros, J. A.
(2015). Contribuições da psicometria para os estudos em neuropsicologia
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 52
cognitiva. Psicologia: Teoria e Prática, 17(2), 94-106. Portuguese.
https://doi.org/10.15348/1980-6906/psicologia.v17n2p94-106.
Ricci, K., Gomes, C. M. A., Nico, M. A. N., &, Seabra, A. G. (2020). Programa de
Enriquecimento Instrumental (PEI) básico em crianças com TDAH e Dislexia.
Psicologia desde el Caribe, 37(3), 1-29. Portuguese.
http://rcientificas.uninorte.edu.co/index.php/psicologia/article/viewFile/12397/21
4421444770.
Richardson, M., Abraham, C., & Bond, R. (2012). Psychological correlates of university
students’ academic performance: a systematic review and meta-analysis. Psychol.
Bull, 138 (2), 353387. https://doi.org/10.1037/a0026838.
Rodrigues, M. N. S., & Gomes, C. M. A. (2020). Testing the hypothesis that the deep
approach generates better academic performance. International Journal of
Development Research, 10(12), 42925-42935.
https://doi.org/10.37118/ijdr.20579.12.2020.
Rosa, M. A. C., Gomes, C. M. A., Rocha, N. S., Kessler, F. H. P., Slavutzky, S. M. B.,
Ferreira, E. F., & Pechansky, F. (2013). Dependence module of the MINI plus
adapted for sugar dependence: psychometric properties. Psicologia: Reflexão e
Crítica, 26(1), 77-86. https://doi.org/10.1590/S0102-79722013000100009.
Salami, S., Bandeira, P. F. R., Gomes, C. M. A., & Dehkordi, P. S. (2021) The Test of Gross
Motor Development Third Editin: a bifactor model, dimensionality, and
measurement invariance. Journal of Motor Learning and Development, 10(1), 116131.
https://doi.org/10.1123/jmld.2020-0069.
Silveira, M. B., Gomes, C. M. A., Golino, H. F., & Dias, F. S. (2012). Construção do Teste
de Habilidade Experiencial (THE): Evidências iniciais de validade e
confiabilidade. Revista E-psi, 1, 77-96. Portuguese.
https://revistaepsi.com/artigo/2012-ano2-volume1-artigo4/.
Silveira, M. S., & Gomes, C. M. A. (2014). Avaliação do desenvolvimento experiencial de
pacientes com prótese ocular: a focalização no atendimento clínico. Psicologia
Clínica, 26(1), 181-196. Portuguese.
http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S0103-
56652014000100012&lng=pt&tlng=pt.
Soler-Contreras, M. G., Cárdenas-Salgado, F., Fernández-Pina, F., & Monroy-Hernández,
F. (2017). Enfoques de aprendizaje y enfoques de enseñanza: origen y evolución.
Edu. Educ., 20(1), 65-88. http://www.redalyc.org/articulo.oa?id=83449754004
Teodoro, M. L. M., Alvares-Teodoro, J., Peixoto C. B., Pereira E.G., Diniz, M. L. N., Freitas,
S. K. P., Ribeiro, P. C. C., Gomes, C. M. A., & Mansur-Alves, M. (2021). Mental
health in college students during covid-19 pandemic. REFACS, 9(2), 372-82.
https://doi.org/10.18554/refacs.v9i2.5409.
Valentini, F., Gomes, C. M. A., Muniz, M., Mecca, T. P., Laros, J. A., & Andrade, J. M.
(2015). Confiabilidade dos índices fatoriais da Wais-III adaptada para a população
brasileira. Psicologia: teoria e prática, 17(2), 123-139. Portuguese. https://
https://doi.org/10.15348/1980-6906/psicologia.v17n2p123-139.
Cristiano Mauro Assis Gomes, Diogo Ferreira do Nascimento
EVIDÊNCIAS DE CONFIABILIDADE DOS ESCORES DO TAP-PENSAMENTO 2, UM TESTE
BASEADO EM DESEMPENHO PARA A MEDIDA DAS ABORDAGENS DE APRENDIZAGEM
European Journal of Education Studies - Volume 9 Issue 9 2022 53
Watkins, D. (2001). Correlates of Approaches to Learning: A Cross-Cultural Meta-
Analysis. In R. J. Sternberg & L. F. Zhang (Eds.), Perspectives on thinking, learning
and cognitive styles (pp. 132157). Mahwah, NJ: Lawrence Erlbaum Associates.
Creative Commons licensing terms
Author(s) will retain the copyright of their published articles agreeing that a Creative Commons Attribution 4.0 Internationa l License (CC BY 4.0) terms
will be applied to their work. Under the terms of this license, no permission is required from the auth or(s) or publisher for members of the community
to copy, distribute, transmit or adapt the article content, providing a proper, prominent and unambiguous attribution to the authors in a manner that
makes clear that the materials are being reused under permission of a Creative Commons License. Views, opinions and conclusions expressed in this
research article are views, opinions and conclusions of the author(s). Open Access Publishing Group and European Journal of Education Studies shall not
be responsible or answerable for any loss, damage or liability caused in relation to/arising out of conflicts of interest, copyright violations and inappropriate
or inaccurate use of any kind content related or integrated into the research work. All the published works are meeting the Open Access Publishing
requirements and can be freely accessed, shared, modified, distributed and used in educational, commercial and non-commercial purposes under a
Creative Commons Attribution 4.0 International License (CC BY 4.0).
Presentation
Full-text available
Trabalho elaborado para o Exame de Qualificação de Doutoramento do Programa de pós-graduação de Neurociências da Universidade Federal de Minas Gerais
Thesis
Full-text available
The development of performance-based tests is a relevant agenda for metacognition studies, since it reduces biases present in conventional measures, allowing the acquisition of new evidence regarding the quality of empirical identification and validation of metacognitive components. The Meta-Text, a test designed to assess the components of cognition regulation through the respondent performance, brought significant contribution to the analysis of the validity of these metacognitive components. However, it is necessary to retest the initial evidence using a larger and more diverse sample. Therefore, the aim of this study is to analyze the structural validation of the Meta-Text in a larger and more diverse sample, incorporating a new set of participants to the original sample. The complete sample consists of 1046 university students and graduates from Honduras and Brazil. Different models were tested using item confirmatory factor analysis. The results indicated that the bifactorial model (CFI=0.981; RMSEA=0.035) best represents the factorial structure of the Meta-Text. This model assumes that both the cognition regulation domain and the specific metacognitive abilities, such as planning, judgment and monitoring directly explain people's performance on the test items. Furthermore, the model factors showed statistically significant variance, which is relevant for analyzing the validity of the metacognitive components themselves. The results indicate that the previous evidence was influenced by sample characteristics, such as size and homogeneity. By including a new sample, evidence is observed to support the validity of all metacognition components analyzed and corroborate with what is suggested by the area of metacognitive studies.
Presentation
Full-text available
A inteligência artificial é um tema que fascina o ser humano. Com o desenvolvimento dos computadores nos anos de 1940 a 1960, foram surgindo propostas para se criar agentes virtuais inteligentes. Diferentemente de um mero banco de dados sobre determinado conhecimento, o agente inteligente, ou inteligência artificial, possui uma série de algoritmos que o permite interagir com o seu conhecimento prévio, de forma a gerar novos conhecimentos. É possível identificar agentes inteligentes em muitas áreas. Na área da medicina, por exemplo, eles são capazes de fornecer diagnósticos bastante sofisticados. De um ponto de vista ideal, a inteligência artificial pode ser uma grande parceira do ser humano e não seu substituto. Até relativamente pouco tempo, as inteligências artificiais eram muito caras ou restritas a certas práticas. No entanto, esse cenário vem mudando de forma relevante e, talvez, em relativamente pouco tempo estaremos usando a inteligência artificial para melhorar nossas práticas profissionais. No que diz respeito à psicometria, os agentes inteligentes têm o potencial de auxiliar o psicometrista em uma série de práticas da área. Nesta apresentação, mostrarei uma prática psicométrica auxiliada por um agente inteligente de fácil acesso para um conjunto vasto de pessoas, o ChatGPT. A despeito de ser ainda um agente em fase beta, ou seja, ainda em “crescimento”, ele demonstra pleno potencial e nos permite vislumbrar o que poderá vir a ser em um futuro relativamente próximo.
Article
Full-text available
A teoria das abordagens de aprendizagem afirma que os estudantes interagem de forma superficial ou profunda com o conteúdo de ensino. Aqueles que adotam a abordagem profunda apresentam motivação intrínseca e usam estratégias cognitivas que favorecem a integração dos conhecimentos. Já os que adotam a abordagem superficial se motivam de forma extrínseca e usam estratégias de aprendizagem mecânica. Por isso, os alunos de abordagem profunda aprendem melhor. As evidências sobre as abordagens de aprendizagem têm sido sustentadas por medidas de testes baseados em autorrelato, os quais são suscetíveis a vieses que prejudicam a medida desses construtos e suas evidências. Diante dessa limitação, o Teste Abordagem-em-Processo Versão 2 foi criado para medir as abordagens do aluno pelo seu desempenho. Por meio de seis itens abertos, o teste demanda ao aluno desempenhar seis comportamentos de abordagem profunda no contexto da aprendizagem de um conteúdo de ensino. As respostas aos itens abertos são corrigidas pelo professor por intermédio do Guia de Correção do Teste Abordagem-em-Processo Versão 2. Esse guia é composto por cinco seções que devem ser preenchidas pelo professor, com a finalidade de auxiliá-lo na aplicação e correção do teste. No guia, o professor define o conteúdo de ensino envolvido na aplicação do teste, nomeia os conceitos fundamentais do conteúdo, apresenta a estrutura conceitual, entre outros elementos pedagógicos importantes. Por isso, o guia tem sido utilizado complementarmente como uma ferramenta de reflexão da prática pedagógica. Neste trabalho, o template do Guia de Correção é apresentado e suas seções são comentadas.
Article
Full-text available
A teoria das abordagens de aprendizagem distingue duas formas fundamentais de construção de conhecimento. A abordagem superficial, baseada em memorização sem construção de significado, e a abordagem profunda, voltada à construção de conhecimento integrado e consistente. As primeiras avaliações das abordagens de aprendizagem utilizavam o método fenomenográfico, que exigia análise qualitativa por juízes. Com o desenvolvimento do campo, os questionários de autorrelato passaram a ser adotados. Apesar dos avanços proporcionados por ambas as metodologias, elas ocasionam vieses que prejudicam a avaliação das abordagens. O uso de testes baseados em desempenho é uma alternativa para avaliar as abordagens sem os vieses do método fenomenográfico e do autorrelato. Por essa razão, o Laboratório de Investigação da Arquitetura Cognitiva (LAICO) iniciou uma agenda de desenvolvimento de testes baseados em desempenho para mensurar as abordagens. O Teste Abordagem-em-Processo Versão 2 é o mais recente dessa agenda, sendo desenvolvido para o próprio professor avaliar as abordagens de seus alunos em relação a um conteúdo específico. A medida baseada em desempenho do Teste Abordagem-em-Processo Versão 2 é feita por meio de itens abertos e o Guia de Correção foi criado para orientar o professor na avaliação desses itens. Embora o Guia de Correção tenha sido aplicado previamente em disciplinas universitárias, ainda não foi utilizado em conteúdos do ensino médio. O Ministério da Educação do Brasil propôs recentemente uma reforma educacional chamada Novo Ensino Médio, visando criar um ambiente de ensino adequado às necessidades dos estudantes e promover uma aprendizagem de melhor qualidade. A aplicação do Teste Abordagem-em-Processo Versão 2 é relevante nesse contexto, pois poderia ser utilizada para avaliar se a qualidade do aprendizado dos estudantes corresponde às expectativas da reforma. Nesse sentido, este artigo apresenta o preenchimento completo do Guia de Correção do Teste Abordagem-em-Processo Versão2 no conteúdo “A adolescência como construção social” da disciplina Projeto de Vida do 1º ano do ensino médio em uma escola pública estadual de Minas Gerais, Brasil.
Article
Full-text available
p>A teoria das abordagens de aprendizagem define duas formas distintas de interação do sujeito com os objetos de conhecimento: abordagem profunda e abordagem superficial. Essa teoria tem proporcionado contribuições relevantes para a área da educação, como por exemplo predizer o desempenho acadêmico e auxiliar o professor em suas práticas pedagógicas a fim de melhorar o processo de aprendizagem do estudante. Embora diversas contribuições tenham sido proporcionadas pela teoria das abordagens de aprendizagem, existe uma limitação que precisa ser superada para o seu desenvolvimento. Até muito recentemente, pelo que sabemos, as medidas das abordagens eram produzidas exclusivamente por instrumentos baseados em autorrelato. O Teste Abordagem-em-Processo (Versão 2) é parte da agenda do Laboratório de Investigação da Arquitetura Cognitiva (LAICO) de elaboração de testes baseados em desempenho para a medida das abordagens de aprendizagem. Este teste avalia de forma inédita as abordagens por meio da performance do estudante ao aprender determinado conteúdo escolar/acadêmico. O teste possui seis questões com um item aberto por questão. Esse item é o que avalia as abordagens por meio do desempenho. Um Guia de Correção dos itens abertos foi criado no LAICO com o objetivo de nortear a correção desses itens pelo professor. Alguns trabalhos já apresentaram o Guia de Correção aplicado a alguns conteúdos universitários, mas nenhum deles em conteúdos da disciplina de Física do Ensino Médio. Neste artigo, será apresentada a aplicação do Guia de Correção no conteúdo corrente elétrica da disciplina Física do Ensino Médio. Nesta apresentação, mostramos que o Teste Abordagem-em-Processo (Versão 2) pode ser aplicado no conteúdo corrente elétrica e possivelmente em todos os conteúdos de Física do Ensino Médio. Ademais, mostramos que o preenchimento do Guia de Correção pela professora foi um momento de reflexão e autoavaliação sobre suas práticas pedagógicas. The theory of learning approaches defines two distinct forms of interaction between the subject and objects of knowledge: deep approach and superficial approach. This theory has provided relevant contributions to the field of education, such as predicting academic performance and helping teachers in their pedagogical practices in order to improve the student's learning process. Although several contributions have been provided by the theory of learning approaches, there is a limitation that needs to be overcome for its development. Until very recently, as far as we know, measures of approaches were produced exclusively by instruments based on self-report. The Approach-in-Process Test (Version 2) is part of the Cognitive Architecture Research Laboratory's (LAICO) agenda of designing performance-based tests to measure learning approaches. This performance-based test evaluates in an unprecedented way approaches through student performance when learning certain school/academic content. The test has six questions with one open item per question. This item is what evaluates the approaches through performance. A Correction Guide for open items was created at LAICO with the objective of guiding the correction of these items by the teacher. Some works have already presented the Correction Guide applied to some higher education contents, but none of them in contents of the subject of High School Physics. In this article, the application of the Correction Guide will be presented in the electric current content of the High School Physics discipline. In this presentation, we show that the Approach-in-Process Test (Version 2) can be applied to the electrical current content and possibly to all High School Physics content. In addition, we show that the completion of the Correction Guide by the teacher was a moment of reflection and self-assessment about her pedagogical practices. Article visualizations: </p
Chapter
Full-text available
Objetivo: Este capítulo apresenta uma aplicação prática do modelo Rasch na construção de medidas em psicologia, por meio de sua utilização na elaboração da medida de quatro habilidades amplas de uma bateria de inteligência.
Chapter
Full-text available
Objetivo: O objetivo do presente estudo é verificar a validade estrutural do Teste de Desenvolvimento do Raciocínio Indutivo-3ª versão, por meio de estratégias complementares de análise fatorial confirmatória (testando modelos concorrentes), do modelo logístico simples de Rasch e do modelo Rasch estendido. Diferentes estratégias investigam diferentes aspectos da validade dos estágios de desenvolvimento, formando um guarda-chuva de evidências. Ao final do capítulo, uma nova definição probabilística de estágios de desenvolvimento é apresentada, a partir das evidências obtidas no estudo.
Chapter
Full-text available
Objetivo: Em Ciências Humanas estamos ainda engatinhando no processo de construir medidas verdadeiras. Buscando iniciar nossa caminhada, precisaremos compreender dois aspectos básicos neste capítulo. O primeiro sustenta que o tratamento de uma variável com métodos quantitativos não necessariamente é uma medida da mesma. A medida está além da quantificação, pois nem toda quantificação é uma ação de medida. O segundo sustenta que a quantificação somente se torna uma medida verdadeira se atingir algumas propriedades fundamentais. Iremos apresentá-las, assim como mostrar que a família de estatísticas Rasch alcança seus requisitos e propicia medidas verdadeiras.
Chapter
Full-text available
Objetivo: O modelo dicotômico de Rasch, também chamado de Modelo Logístico Simples, foi desenvolvido pelo matemático Dinamarquês Georg Rasch nos anos de 1960. Como visto no primeiro capítulo, os modelos de Rasch foram os primeiros modelos probabilísticos de medidas aditivas conjuntas. O modelo apresentado no presente capítulo aplica-se a dados dicotômicos, do tipo sim/não, presente/ausente, correto/incorreto, e apresenta uma série de características que fizeram avançar o campo da psicometria e, por consequência, da avaliação psicológica, educacional e da saúde.
Chapter
Full-text available
Objetivo: No capítulo 2 nós tivemos a oportunidade de ler os símbolos matemáticos da expressão de invariância de parâmetros, assim como vimos a forte conexão entre os conectivos dessa expressão e a teoria dos conjuntos. No capítulo 3 continuaremos a explorar a invariância dos parâmetros, pois ela é uma das partes centrais para uma medida. No entanto, faremos isso agora por meio do conceito de probabilidade e suas principais características.
Article
Full-text available
Students’ approaches to learning are an important tool used by researchers in the field of educational psychology. The theory assumes that students have two basic ways of approaching objects of knowledge, a deep one and a superficial one. Both are reasonable predictors of academic performance. The study of the learning process requires instruments to be applied to students, nevertheless, the exclusive use of self-report instruments has substantially hindered an adequate study of this process. The Laboratory for Research on Cognitive Architecture (LAICO) at the Federal University of Minas Gerais brought forth an important recent contribution to learning approaches. This is the development of the Approach-in-Process Test (Version 2) which measures the students' process when using their learning approaches. The Approach-in-Process Test (Version 2) is completely original since it is a test based on performance that measures students’ learning approach in the academic learning context. In this paper, we make a presentation of the Approachin-Process Test (Version 2) where we show in detail its structure and content.
Article
Full-text available
Meta-analyses show that the correlations of approaches to learning with academic achieve- ment are low. However, only one study has controlled these correlations in the presence of intelligence. Our study investigates the incremental validity of the surface and deep approa- ches taking cognitive abilities as control and applied the multiple linear regression and CART regression tree method in a diversified sample of high school students from Minas Gerais, Brazil. We found a prediction of 20.37% and 35.20% of the outcome variance, through the linear regression and CART, respectively. Our results show that although cog- nitive abilities are more important than students’ approaches, the approaches have incre- mental validity and important roles as predictors of academic achievement.
Article
Full-text available
This study argues that the current assessment of the student's academic is wrong. The educators, in general, were trained in a secular practice that the student' academic achievement can be evaluated through the measurement of the population or a group of students. This direct transposition of the estimate of the population to one particular student is the reason why the current assessment is wrong. This study shows the main arguments that sustain this statement, cautioning educators that a sweeping transformation is necessary for a proper evaluation of the academic achievement and learning of the student. In sum, in this article we show that all we know about the student's achievement and learning, including their predictors, are not valid. Furthermore, we also claim that researchers and educators should recognize the importance of this issue and consider other alternatives to render valid and viable the measurement of the student's achievement and learning.
Preprint
Full-text available
Este trabalho apresenta a Escala de Abordagens de Aprendizagem e a disponibiliza para fins de ensino e pesquisa aos pesquisadores
Article
Full-text available
Metacognition is predominantly measured by the self-report and think-aloud methods. This is problematic since they produce considerable both respondent and confirmatory biases, which implies damage to the measurement. The Metacognitive Monitoring Test (MMT) was created to evaluate metacognition through performance and eliminate the aforementioned biases. There is evidence of MMT convergent, divergent, structural, predictive and incremental validity. This article expands the validity studies about the MMT by analyzing the configural, metric and scalar invariance of MMT across sex, nationality, and educational level variables. The sample is composed of Brazilian and Honduran subjects, as well as 6st to 12st grades and higher education students. Results indicate configural, metric and scalar invariance for the sex variable, as well as configural invariance and metric and scalar partial invariance for nationality and educational level. It is concluded that the MMT allows comparing means of the latent variable measured in the analyzed groups.