Content uploaded by S.C. dos Santos
Author content
All content in this area was uploaded by S.C. dos Santos on Aug 05, 2020
Content may be subject to copyright.
PBL NO ENSINO DE TESTES DE SOFTWARE: UMA EXPERIÊNCIA
PRÁTICA
Caliane de O. Figuerêdo1, Simone C. dos Santos 2, Gustavo H. S. Alexandre3, Paulo H. M. Borba 4
1 Caliane de O. Figuerêdo, UFPE - Universidade Federal de Pernambuco, Av. Prof. Luis Freire, S/N - Cidade Universitária, 50.740-540, Recife-PE, Brasil,
cof@cin.ufpe.br
2 Simone C. dos Santos, UFPE - Universidade Federal de Pernambuco, Av. Prof. Luis Freire, S/N - Cidade Universitária, 50.740-540, Recife-PE, Brasil,
scs@cin.ufpe.br
3 Gustavo H. S. Alexandre, C.E.S.A.R - Centro de Estudos e Sistemas Avançados do Recife, Rua Bione, 220, Bairro do Recife, 50.030-390, Recife-PE,
Brasil, gustavo.alexandre@cesar.org.br
4 Paulo H. M. Borba, UFPE - Universidade Federal de Pernambuco, Av. Prof. Luis Freire, S/N - Cidade Universitária, 50.740-540, Recife-PE, Brasil,
phmb@cin.ufpe.br
Abstract
The activity of software testing is an area of IT
that has grown over the years and that is directly related to
the need to produce quality products that meet increasing
demands. By focusing on the professionals responsible for
quality assurance, as the Engineer of Tests, skills and
competence of these need to be developed based on a very
critical and detailed view of the problem. In this context, this
paper proposes the adoption of PBL (problem-based
learning) as a teaching methodology for the professionals
training in software testing. To prove the applicability of this
proposal, an empirical study was developed with positive
results in teaching the discipline of testing.
Index Terms
Problem-Based Learning, Software Testing,
Training.
INTRODUÇÃO
A indústria de software atual tem apresentado uma demanda
cada vez maior por profissionais capacitados em testes de
software, devido à preocupação das empresas em entregar
produtos de qualidade para os seus clientes. Neste cenário,
as habilidades e competências dos Engenheiros de Testes
precisam ser desenvolvidas com base numa visão crítica e
detalhada do problema, dentro de um contexto real de
mercado. Do ponto de vista acadêmico, geralmente, a
formação destes profissionais é baseada na aprendizagem de
conceitos e fundamentos, com pouca ênfase no
desenvolvimento de habilidades voltadas para a aplicação
prática de conceitos e resolução de problemas reais [1].
Neste sentido, a aprendizagem baseada em problemas
(PBL) surge como uma possível solução para este desafio, e
tem sido aplicada em diferentes áreas de mercado. De
acordo com [2], métodos que criam espaços para aprender
fazendo, aprender a aprender, trabalhar em equipes
autênticas e refletir sobre o aprendizado através de
comunicação oral e escrita são especialmente desejados.
Em [3], os autores relatam que este método vem se
firmando, nas últimas décadas, como uma das mais
importantes inovações da educação, tornando-se, em
diversos países, um poderoso instrumento para a reflexão e
questionamento a cerca da razão de ser, das finalidades da
formação profissional e das mudanças que devem ser
implementadas.
Diante deste contexto, a principal contribuição deste
artigo é relatar a experiência da aplicação do método de
aprendizagem baseado em problemas em um Programa de
Capacitação em Testes de Software (PCTS), direcionado a
alunos de graduação (futuros profissionais de testes de
software), no qual o aprendizado é motivado por meio de um
projeto real.
O PCTS foi implementado pelo Laboratório de
Produtividade de Software (LabPS) do Instituto Nacional de
Ciência e Tecnologia para a Engenharia de Software (INES)
no Centro de Informática da Universidade Federal de
Pernambuco (CIn-UFPE), com a colaboração de parceiros
do instituto de inovação C.E.S.A.R (Centro de Estudos e
Sistemas Avançados do Recife) e da indústria de software
de Pernambuco, Brasil.
APRENDIZAGEM BASEADA EM PROBLEMAS
A aprendizagem baseada em problemas (PBL) é um método
de ensino que tem como característica principal um processo
que utiliza problemas para iniciar e motivar a aprendizagem
de conceitos e promover habilidades e atitudes necessárias a
sua solução, diferentemente dos métodos convencionais que
colocam um problema de aplicação ao final da apresentação
de um conteúdo [4].
Neste modelo, os papéis do aluno e do professor/tutor
são diferentes da abordagem tradicional. De acordo com [5],
os professores/tutores atuam como direcionadores (técnicos)
ajudando os alunos a identificarem um caminho para
alcançar o aprendizado necessário para solucionar um
problema. Assim, o estudante muda de papel no processo de
aprendizagem, passando de receptor passivo para ativo,
responsável pelo seu aprendizado.
O PBL não almeja apenas a solução de um problema. O
objetivo deste método é também incluir a aquisição de uma
base de conhecimentos integrada e estruturada em torno de
problemas da vida real, bem como a promoção de
habilidades de trabalho em grupo, aprendizagem autônoma e
atitudes tais como cooperação, ética e respeito pela opinião
do outro [6]. Além disso, uma metodologia PBL efetiva é
fortemente orientada a processos e acompanhada por
instrumentos que possam avaliar a sua efetividade. A
imersão prática na qual os estudantes são submetidos exige
um planejamento de ensino que envolve a definição da
estrutura do ambiente prático, de objetivos educacionais, de
papéis do capital humano envolvido e da avaliação de
resultados.
METODOLOGIA PARA CAPACITAÇÃO EM TESTES
O PCTS é direcionado para alunos de graduação em Ciência
da Computação e áreas afins, tendo como objetivo
proporcionar a estes alunos o domínio e a disseminação de
conhecimentos técnicos na área de testes de software através
de uma metodologia de ensino diferenciada, onde o
aprendizado é motivado pro meio de projetos reais.
Na metodologia de ensino do PCTS, a execução de um
projeto é guiada por um Módulo de Aprendizagem (MA),
definido no programa como um conjunto de tarefas,
treinamentos, técnicas e ferramentas, que visam o
aprendizado teórico e prático de um conteúdo específico [1].
Na execução dos projetos deste programa, os estudantes
foram divididos em equipes pequenas e heterogêneas: uma
equipe alocada no turno da manhã e; a segunda equipe no
turno da tarde. Essas equipes foram compostas por alunos de
diferentes instituições e de diferentes períodos da graduação.
Para cada novo projeto há alocação dos papéis de cada aluno
dentro da equipe de testes, tais como: gerente de testes,
analista de testes e executor de testes. Apesar dessa alocação
de papéis, cada integrante se envolve em todas as etapas do
processo de testes.
Para orientar os alunos na execução dos projetos, o
programa de capacitação conta com a participação de um
gestor (responsável pelo acompanhamento e controle dos
projetos), e uma rede de colaboradores voluntários que
atuam como tutores (responsáveis por ministrar
treinamentos e preparar material de ensino, atuando como
avaliador e facilitador do aprendizado do aluno) e
consultores (especialistas em testes de software, que ajudam
na definição e planejamento dos módulos de aprendizagem)
do programa.
O acompanhamento do aprendizado é realizado de
forma contínua, recorrendo-se a três modalidades de
avaliação definidas por Bloom [7]:
Diagnóstica: determinar se o estudante possui os pré-
requisitos necessários para a aquisição de novos
conhecimentos específicos;
Formativa: monitora o progresso da aprendizagem, e
tem como propósito prover feedback para o aluno,
daquilo que ele aprendeu e do que precisa aprender, e
para o professor, identificando as falhas dos alunos e
quais aspectos da instrução que devem ser modificados
[8]. No contexto de projetos do PCTS, as avaliações
formativas são realizadas analisando os seguintes
aspectos: (a) conteúdo, avaliação baseada no conteúdo
ministrado nos treinamentos, observando o
conhecimento teórico adquirido; (b) processo, avaliação
baseada no acompanhamento das atividades do processo
e cumprimento de prazos, observando a oralidade,
postura, pontos fortes e de melhoria e pontualidade; (c)
entregas, avaliação dos artefatos produzidos,
observando características como padronização,
organização, completude, corretude, criatividade e
aplicabilidade;
Somativa: modelo de avaliação mais comumente
utilizado pelas instituições de ensino, foi utilizada para
classificar um estudante no desfecho de aprendizagem
desejado.
O conceito final (CF) dos alunos inclui as notas das
avaliações formativas (AFs) e somativa (AS).
CF= (AFs/3 x 0,6) + (AS x 0,4). (1)
Numa escala de 0 a 10, o conceito final dos alunos é
considerado satisfatório se a nota estiver no intervalo entre 7
e 9. Abaixo desse intervalo a nota é considerada ruim e
acima de 9 o resultado é excelente. Nos casos em que o
conceito final do aluno não for satisfatório, procura-se
identificar as lacunas de aprendizagem e trabalhar as
melhorias necessárias para que ele desenvolva os
conhecimentos e requisitos necessários à sua aprovação nos
projetos seguintes.
RESULTADOS DA APLICAÇÃO DA METODOLOGIA
O projeto relatado neste artigo, parte do PCTS, teve
uma duração de 4 meses. O desafio lançado aos alunos foi
realizar testes exploratórios na ferramenta TaRGeT (Test
and Requirement Generation Tool), com o objetivo de
encontrar as falhas, verificar a conformidade com os
requisitos e aumentar a confiabilidade da ferramenta. O teste
exploratório é baseado nas habilidades, intuições e
experiências do testador, sem a necessidade de roteiros de
testes [9]. Por ser investigativo estimula a criatividade e
desafia o testador a projetar testes melhores e mais eficazes.
Inicialmente, a turma era composta por 10 alunos
organizados em 2 equipes de 5 integrantes, uma equipe
alocada no turno da manhã (Scan) e a outra no turno da tarde
(Câmbio).
No primeiro dia de atividades do projeto, as equipes
Scan e Câmbio foram orientadas pelo gestor do programa de
capacitação em relação aos objetivos e atividades do projeto,
com atenção aos prazos, artefatos a serem entregues, e
processo de avaliação. Para a realização dessas atividades,
os alunos tinham como guia o conteúdo e os elementos
definidos no módulo de aprendizagem de teste exploratório,
como também o apoio dos tutores e consultores envolvidos
no projeto, recursos e um ambiente favorável ao aprendizado
teórico e prático.
Módulo de Aprendizagem de Teste Exploratório
O módulo de aprendizagem de teste exploratório
representa o conteúdo a ser estudado e aplicado no projeto,
além de dispor de elementos que guiariam os alunos na
execução de suas atividades. Em [1], o autor descreve esses
elementos como sendo:
Objetivos Educacionais: os objetivos educacionais do
MA que guia o projeto “LabPS – Teste Exploratório” é
que, ao final do projeto, o aluno seja capaz de conhecer,
compreender e aplicar os conceitos, processos e técnicas
de teste exploratório, em conjunto com algumas técnicas
de modelagem de testes caixa preta, que ajudam o
testador a selecionar os cenários de testes de forma mais
precisa e é eficaz em detectar determinados tipos de
erros. Além disso, espera-se também o desenvolvimento
de habilidades de comunicação oral e escrita, e trabalho
em equipe;
Estratégia de Testes: a estratégia de testes do módulo
aborda as técnicas de teste utilizadas. Uma técnica de
testes diz respeito a como testar. As técnicas abordadas
no módulo foram: (a) Session Based & Charter, uma
técnica de teste exploratório utilizada para tornar o teste
exploratório mais efetivo e com objetivos mais claros.
Nesta abordagem o teste exploratório é realizado em
sessões (caixas de tempo) de cerca de 90 minutos,
podendo variar de 60 a 120 minutos. Cada sessão deve
cumprir uma missão previamente definida (charter),
descrevendo a intenção do que deve ser testado e não
como o teste deve ser realizado; (b) Técnicas de
Modelagem de Teste Caixa Preta: são técnicas que
ajudam o testador a selecionar os cenários de testes de
forma mais precisa e é eficaz em detectar determinados
tipos de erros;
Processo de Teste: esse elemento define os papéis,
responsabilidades, fases e artefatos da atividade de teste.
Este processo foi adaptado para a realização de testes
exploratórios baseado em sessão, onde não existe a
criação de casos de testes, mas a criação de charters
(missões de testes) na fase de projeto de testes. Além
disso, o registro de incidentes é feito após o termino da
execução do teste, e não durante a sua execução. Nesse
processo os papéis se resumem a gerente de testes e
testador. O gerente de testes planeja, gerencia e controla
as atividades, o cronograma e a equipe de testes. O
testador é quem cria e executa os testes. As fases ou
etapas do processo foram definidas tendo como base as
práticas de teste exploratório relatadas em [10], com
algumas adaptações para o projeto de teste em questão:
(a) Planning, nessa etapa é onde ocorre a definição do
escopo dos testes e elaboração do plano de testes; (b)
Design, etapa que consiste na criação dos charters onde
é feito o registro das idéias e planos do testador; (c)
Session, consiste na execução dos charters, onde cada
sessão é baseada em um charter, incluindo o tempo de
preparação do ambiente de testes, execução e
investigação e registro de falhas (Bugs); (d) Debrief, é
uma conversa rápida entre o gerente de testes e o
testador sobre a sessão e os resultados encontrados, para
verificar se o que estava dentro do plano foi realmente
testado, planejar novas sessões de testes; (e) Bug
Tracking, é a fase de acompanhamento das falhas
(Bugs) registradas, até que elas cheguem a um estado
final;
Ferramentas de apoio: as ferramentas TestLink
(gerenciamento e execução dos testes), Mantis
(gerenciamento de incidentes), e DotProject
(gerenciamento de projetos) foram definidas como
ferramentas de apoio ao processo de testes. O TestLink
e o Mantis já haviam sido utilizados pelos mesmos
alunos em um módulo anterior a este;
Treinamentos: foram planejados quatro treinamentos
para serem ministrados durante a execução do projeto
de teste: (a) DotProject, por ser uma ferramenta ainda
não utilizada pelos alunos; (b) Teste exploratório,
abordando os principais conceitos e técnicas de teste
exploratório; (c) Session Based & Charter, por ser uma
técnica de teste exploratório mais efetiva e controlada;
(d) Técnicas de Modelagem de Testes Caixa Preta,
abordando as principais técnicas para a seleção e
elaboração de cenários de testes, no intuito de induzir os
alunos a testarem de forma mais criativa e criteriosa.
Execução do projeto
Após as apresentações inicias, a primeira atividade do
projeto foi planejar os testes. Embora já tivessem utilizado a
ferramenta TaRGeT como ferramenta de apoio para a
geração de casos de testes de forma automatizada em um
projeto anterior a este, as duas equipes relataram
dificuldades no entendimento de algumas funcionalidades da
ferramenta, como também de analisar a complexidade e o
nível de criticidade de cada uma delas para a definição do
escopo dos testes e elaboração do plano de testes, artefato
que deveria ser entregue ao final da etapa de planejamento
dos testes.
A elaboração do plano de teste exigiu um conhecimento
a cerca da ferramenta a ser testada, dos conceitos e técnicas
de teste exploratório, do ambiente, dos recursos e métricas
de testes. Após alguns dias de investigação do problema, o
cliente do projeto, que nesse caso também estava exercendo
o papel de desenvolvedor da ferramenta, foi convidado a
participar de algumas reuniões com as equipes Scan e
Câmbio para responder as dúvidas dos alunos e ajudar a
definir quais funcionalidades eram mais críticas e quais
funcionalidades poderiam eventualmente ficar de fora do
escopo dos testes. Por ser um projeto real, a participação do
cliente é essencial para um bom entendimento dos objetivos
e requisitos de testes.
Ao longo da execução do projeto, outras dificuldades
foram surgindo e motivando os estudantes a buscarem
repostas para solucionar os problemas encontrados, e com o
apoio dos colaboradores do projeto (gestor, tutor, consultor),
foram colocados em prática os recursos de aprendizagem
definidos no módulo, para direcionar e orientar os alunos na
resolução dos questionamentos e dificuldades identificadas,
como a realização de treinamentos, indicações de livros e
referências das principais publicações sobre a atividade de
teste exploratório, e reuniões com os tutores, o que ajudou
muito na execução das atividades, gerando muita discussão e
aprendizado.
No teste exploratório baseado em sessão a execução do
teste é orientada pelo objetivo do teste (charter) com foco
em funcionalidades específicas, definidas previamente, sem
a necessidade de um roteiro de teste. Um dos pontos mais
discutidos durante as reuniões semanais foram a respeito das
divergências de opiniões sobre a utilização de um template
(opcional) para fazer anotações durante a execução de teste e
sobre as observações em relação à dificuldade dos alunos
para relatar uma falha na ferramenta Mantis, causando
alguns atrasos por conta do entendimento desses registros de
defeitos. Após algumas orientações dos tutores, leituras de
artigos e reuniões, os alunos entraram em um consenso e
optaram em utilizar o template de anotações, inclusive
sugerindo melhorias para o mesmo. Para auxiliar a atividade
de registro de defeitos, um novo treinamento, intitulado
“Como Relatar Bugs de Maneira Eficaz” foi adicionado ao
módulo e ministrado para os alunos. As orientações
repassadas neste treinamento facilitaram muito o trabalho de
gerenciamento dos defeitos (BugTracking), e principalmente
a comunicação escrita na hora de reportar as falhas, de
maneira mais clara e objetiva.
Ao final do módulo, as equipes apresentaram os
resultados do projeto para o cliente e todos os envolvidos no
processo. As métricas coletadas e os resultados obtidos na
avaliação dos testes foram considerados satisfatórios pelo
cliente e tutores do projeto. Em comparação com as falhas
encontradas na execução via roteiros de testes, realizados em
projeto anterior na mesma ferramenta, o número de falhas
encontradas foi maior e grande parte delas consideradas
críticas, analisando o grau de prioridade e severidade dessas
falhas. Outro resultado importante foi a identificação de
alguns defeitos que normalmente são ignorados ou difíceis
de encontrar. Importante ressaltar também que embora as
duas equipes tenham realizado os testes na mesma
ferramenta, as falhas encontradas pela equipe Scan foram
diferentes das falhas encontradas pela equipe Câmbio. Isto
reforça a importância da estratégia de testes utilizada, assim
como o método de ensino aplicado no projeto. Além desses
resultados, durante a apresentação foi possível observar que
os alunos realizaram um bom trabalho em equipe,
demonstrando o domínio dos conhecimentos teóricos e
práticos da estratégia de testes adotada no módulo, como
também avanços na comunicação verbal e oral. Essas
habilidades foram observadas também nas revisões dos
artefatos entregues e apresentação de status report do
projeto.
Avaliação do Módulo de Aprendizagem
O projeto “LabPS – Teste Exploratório” foi o primeiro
projeto do programa de capacitação onde foi possível aplicar
um processo de avaliação que permitiram obter resultados
mais concretos em relação aos objetivos de aprendizagem
propostos inicialmente para o módulo de aprendizagem de
teste exploratório.
Embora o projeto tenha iniciado com a participação de
10 alunos, apenas 6 concluíram o módulo. Durante a sua
realização 4 alunos saíram do programa de capacitação, um
por motivo de conclusão de curso de graduação, outro por
mudança de cidade e os outros dois por terem sido
selecionados em programas de estágio curricular. Portanto,
foram descritos nesta seção apenas os resultados referentes
aos 6 alunos que concluíram todas as atividades do projeto e
participaram de todas as avaliações.
Para cada modalidade de avaliação foram definidos os
seguintes critérios e métodos:
Critérios de avaliação: Foram definidos os critérios de
avaliação para o conteúdo, entregas, e processo. Nas
avaliações de conteúdo os alunos foram avaliados em
relação ao conhecimento teórico. Os artefatos gerados
pelos alunos (entregas) foram avaliados em relação a
padronização, organização, completude, corretude,
criatividade, aplicabilidade e pontualidade. Nas
apresentações (status report), os critérios foram
oralidade, postura, aparência, slides, acompanhamento
das atividades, pontos fortes e de melhoria.
Métodos de avaliação: Foram definidos métodos de
avaliação (individual/equipe), tendo como instrumentos
de avaliação, provas objetivas para as avaliações
diagnósticas e somativa, provas dissertativas, exercícios
ou apresentação oral para as avaliações do tipo
formativas.
O processo de avaliação teve inicio com a aplicação de
uma avaliação diagnóstica no início do projeto para cada
aluno, de forma individual, no intuito de verificar o
conhecimento dos alunos em relação ao conteúdo do módulo
de aprendizagem de teste exploratório. Nessa avaliação
metade dos alunos tiveram notas abaixo da média (7,0).
Após uma análise das respostas e reunião de feedback com
os alunos, verificou-se pouco conhecimento a respeito do
conteúdo a ser ministrado no módulo. Em seguida iniciaram-
se as avaliações formativas de conteúdo, processo e
entregas. A Tabela I apresenta as notas dos alunos nas
avaliações formativas.
TABELA I
AVALIAÇÕES FORMATIVAS
Estudantes
Conteúdo
Entregas
Processo
Estudante 1
9,4
9,6
9,1
Estudante 2
8,6
9,7
9,1
Estudante 3
8,1
9,5
8,3
Estudante 4
8,6
8,7
8,3
Estudante 5
8,5
9,5
8,3
Estudante 6
9,0
9,4
8,3
As notas das avaliações de conteúdo (treinamentos) e
entregas (artefatos gerados no projeto) foram individuais, as
avaliações de processo (apresentação de status report,
pontualidade e acompanhamento das atividades) foram
realizadas em equipe. Para cada avaliação formativa
realizada, os alunos receberam um feedback dos tutores
envolvidos, e dessa forma as lacunas do aprendizado foram
sendo preenchidas e observadas nas avaliações seguintes e
nas atividades práticas do projeto.
Ao final do módulo, após a conclusão de todas as
atividades do projeto, foi aplicada uma avaliação somativa
(prova objetiva), individual, de caráter classificatório. A
Tabela II apresenta as notas das avaliações formativas e
somativas, destacando o conceito final dos alunos ao final do
módulo.
TABELA II
CONCEITO FINAL DOS ALUNOS
Estudantes
Média das Avaliações
Formativas
Avaliação Somativa
Conceito Final
Estudante 1
9,4
6,0
8,0
Estudante 2
9,1
10,0
9,5
Estudante 3
8,6
7,0
8,0
Estudante 4
8,5
9,8
9,0
Estudante 5
8,8
7,5
8,3
Estudante 6
8,9
7,0
8,1
Pode-se observar na Tabela II, que as notas da avaliação
somativa foram abaixo da média das avaliações formativas.
Mesmo assim, apenas 1 aluno tirou uma nota abaixo de 7,0,
e esse mesmo aluno teve um ótimo rendimento nas
avaliações formativas. Ao ser questionado pela nota baixa, o
aluno respondeu que não havia dormido na noite anterior
realizando uma tarefa da sua graduação. Se não fosse o
acompanhamento individual através das avaliações
formativas, esse aluno poderia ser considerado como
possuidor do conhecimento de 60% de tudo o que foi
abordado no módulo. No entanto, de acordo com [8] é
possível que este aluno tenha aprendido mais (ou menos) do
que ele obteve na sua nota somativa ou no conceito final.
Por isso a importância de um processo de avaliação contínuo
favorecendo o devido acompanhamento e orientação dos
alunos no decorrer do módulo.
Considerando o conceito final, o acompanhamento
individual de cada aluno e, analisadas as observações do
gestor, tutores, e do cliente do projeto, os resultados foram
muito positivos, apontando apenas uma necessidade de
melhoria do módulo em relação ao conteúdo teórico dos
treinamentos e atenção aos prazos, por conta dos atrasos em
algumas atividades, devido as dificuldades relatadas na
execução do projeto e do processo de avaliação, visto que foi
a primeira vez que as avaliações foram aplicadas no
programa de capacitação.
CONCLUSÃO
A metodologia de capacitação em testes de software
proposta neste trabalho usando o PBL como abordagem de
ensino e aprendizagem possibilitou uma experiência
profissional e permitiu ao estudante vivenciar situações reais
da atividade de teste de software, ao mesmo tempo em que
competências não técnicas eram exercitadas. Os trabalhos
realizados e apresentados pelos alunos refletiram a realidade
exigida pelo mercado de trabalho e os objetivos
educacionais propostos para o módulo foram atingidos na
medida em que os resultados obtidos foram positivos. O
processo de avaliação adotado no projeto “LabPS – Teste
Exploratório” forneceu instrumentos de acompanhamento e
controle que contribuiu de forma significativa para esse
resultado.
A metodologia proposta será implementada em novos
projetos do Programa de Capacitação em Testes do LabPS.
Embora adotada com sucesso no projeto “LabPS – Teste
Exploratório”, a utilização desta metodologia em novos
experimentos é essencial para comprovar a sua
aplicabilidade.
AGRADECIMENTOS
Este trabalho foi apoiado [em parte] pelo Instituto Nacional
de Ciência e Tecnologia para Engenharia de Software
(INES), financiado pelo CNPq e FACEPE, processos
573964/2008-4 e APQ-1037-1.03/08.
REFERÊNCIAS
[1] Figuerêdo, C. O., Santos, S. C., Alexandre, G. H. S, Borba, P. H. M.,
“Using PBL to Develop Software Test Engineers”, Accepted paper at
14th IASTED International Conference on Computers and Advanced
Technology in Education (CATE 2011), Cambridge, United Kingdom,
2011.
[2] Santos, D. M. B., et al., “Aplicação do Método de Aprendizagem
Baseada em Problemas no Curso de Engenharia da Computação da
Universidade Estadual de Feira de Santana”, XXXV Congresso
Brasileiro de Educação em Engenharia (COBENGE 2007), Curitiba,
Paraná, Brasil, Setembro, 2007, pp. 1-14.
[3] Boud, D., Feletti, G., “The Challenge of Problem-Based Learning”,
Kongan Page, London, 1998.
[4] Ribeiro, L. R., Mizukami, M. G. N., “A PBL na Universidade de
Newcastle: Um Modelo para o Ensino de Engenharia no Brasil?”
Olhar de Professor, Vol. 7, Ponta Grossa, Brasil, 2004, pp. 133-146.
[5] Santos, D. M. B., Saba, H., Junior, J. R., Sarinho, V., “Integrando as
Disciplinas de Engenharia de Software, Análise e Projeto de Sistemas
e Banco de Dados utilizando PBL”. XXVII Congresso da SBC, XV
Workshop de Educação em Informática, Rio de Janeiro, RJ, Brasil,
2007, pp. 66–75.
[6] Barrows, H. S., “Problem-Based Learning (PBL), Disponível em
<http://www.pbli.org/pbl/pbl.htm>. Último acesso: 05 de maio de
2011.
[7] Bloom, B. S. et al., “Manual de Avaliação Formativa e Somativa do
Aprendizado Escolar”, Pioneira, 1a edição, São Paulo, 1983.
[8] Alexandre, G. H. S., Santos S.C., Tedesco P.C. A. R., “Using Bloom's
Cognitive Domain in Web Evaluation Environments”, 2nd
International Conference on Computer Supported Education (CSEDU
2010), Valencia, Spain, 2010.
[9] Black. R., “Advanced Software Testing: Guide to the ISTQB
Advanced Certification as an Advanced Test Analyst”. Rocky Nook
Inc, USA, Vol. 1, 1st edition, 2009.