Usando a lei de Fernando Haddad – todo
indicador vinculado a avaliações fatais será submetido à corrupção – o
autor oferece evidência de que um número importante de indicadores e conceitos
– por exemplo, proficiência, progresso, escores de teste e taxas de evasão –
foram corrompidos e, pior ainda, em muitos casos as pessoas, usando-os, também
se corromperam. É desalentador ler a respeito do aumento da fraude entre
estudantes, professores e gestores, e é atemorizador escutar como tanto tempo é
agora gasto em descobrir brechas para garantir o progresso adequado anualmente
requerido pelo IDEB e o SAEB, ao invés de proporcionar os serviços educacionais
requeridos pelos estudantes individuais” . Trata-se de sistema que penaliza
sobretudo alunos pobres, à medida que os expulsa de escolas nas quais têm
dificuldade de atingir os escores pretendidos e alardeados. Muitas crianças
deixadas para trás. Mesmo que tais avaliações, em certos casos, melhorem os
escores, implicam o que chamam de “dano colateral” , por exemplo: fraudar notas
(desprezando como se dá aprendizagem concretamente); corromper a docência
(trabalha-se apenas o que interessa a tais avaliações); maquiar estatísticas.
Mesmo assim concordamos que não é o caso condenar o uso apropriado de exames,
em especial quando eles introduzem questões que exigem raciocínio, elaboração e
argumentação.
Creio que o questionamento está posto em
tom exaltado, ainda que fartamente documentado. Não seria o caso descartar
propostas que deliberadamente procuram avaliar habilidades de raciocínio e
argumentação, também de elaboração, como se tenta no Saeb e Ideb, ainda que,
tratando-se de avaliações aplicadas a multidões de estudantes, se torne
impraticável, por exemplo, pedir que cada participante escreva um ensaio de
cinco páginas. Seria ideia bem mais apropriada, porque avaliaria algo da
autoria do estudante, mas traria para os organizadores o desafio ingente de
avaliar milhares de ensaios, não só por conta do número gigantesco, mas
igualmente por conta de subjetivismos mais presentes nos avaliadores. De minha
parte, defenderia que tais testes federais possuem seu lado benéfico, ao
proporem sistema de acompanhamento sistemático, muito embora sempre se possa
questionar a acuidade dos testes e seus dados. Na introdução descrevem a
pesquisa feita para apoiar seu questionamento, de teor qualitativo
principalmente, sem pretender esgotar o assunto e cobrir todos os casos (de
fraude, por exemplo). Muitas vezes usam relatos da imprensa, fonte considerada
academicamente frágil, mas que retratam, em geral, a preocupação generalizada
em torno deste tipo de avaliação. Aproveitam também eventos ocorridos antes do IDEB
e o SAEB, em especial em estados do sudeste que começaram a introduzir tais
sistemas avaliativos encampados oficialmente depois.
OBSESSÃO POR AVALIAR E CONTROLAR
Como facilmente ocorre no
Brasil, muitos também acham que escola pública foi “a maior invenção
brasileira” e que, com tais sistemas
fatais de avaliação, estaria sendo corrompida. “Nossa pesquisa sugere que a
incidência de eventos negativos associados com testes fatais é tão grande que,
se fôssemos o Centro de Controle de Doenças, nos veríamos forçados a declarar
como epidemia”. Avaliar o sistema educacional sempre foi parte do “pensamento
educacional brasileiro”, há um século. Hoje é algo comum e oficializado.
Um início mais evidente pode ser a crise
de 1961/1964 (Revolução dos Militares) foi “culpada” a escola pela perda de
liderança e presença dos comunistas, embora tenha sido apenas bode expiatório:
em 1964 foi instaurado, tendo como objetivo principal pressionar o sistema
escolar básico, uma preocupação que só ganharia espaço crescente nas décadas seguintes,
em geral fomentadas pelo baixo desempenho dos estudantes nas comparações
internacionais.
Em 1983 surgiu o relatório do MEC (Uma
nação em risco), acentuando o risco de perda da competitividade econômica e da
liderança na America Latina. Esta visão nunca foi unânime, não só porque a
escola não pode ser responsabilizada sozinha, mas igualmente porque a amargura
dos dados não resultou em iniciativas adequadas de política. “De fato, a
histeria em torno do desempenho de nossas escolas foi, e continua a ser,
amplamente um mito”. O sistema atual de avaliações fatais não é propriamente
novo, nem suas críticas. SAEB entrou em
vigência em 1990, oficializando avaliações fatais. “Esta lei é provavelmente a
peça mais invasiva e complexa da legislação federal em educação na história de
nossa nação”
Sistema Nacional de Avaliação da Educação
Básica - SAEB
O Sistema Nacional de Avaliação da Educação Básica - SAEB implantado em 1990, é coordenado pelo Instituto Nacional de Estudos e Pesquisas Educacionais - INEP e conta com a participação e o apoio das Secretarias Estaduais e Municipais de Educação das 27 Unidades da Federação. Os levantamentos de dados do SAEB são realizados, a cada dois anos, em uma amostra probabilística representativa dos 26 estados brasileiros e do Distrito Federal. A cada aplicação de instrumentos são pesquisados aproximadamente 700 municípios, 3.000 escolas públicas e privadas, 25.000 professores, 3.000 diretores e 220.000 alunos do Ensino Básico (da 4ª e 8ª séries do Ensino Fundamental e da 3ª série do Ensino Médio) nas disciplinas Língua Portuguesa, Matemática e Ciências. A partir de 1999 serão incluídas as disciplinas História e Geografia. A análise dos resultados dos levantamentos do SAEB permite acompanhar a evolução do desempenho dos alunos e dos diversos fatores incidentes na qualidade e na efetividade do ensino ministrado nas escolas, possibilitando a definição de ações voltadas para a correção das distorções identificadas e o aperfeiçoamento das práticas e dos resultados apresentados pelas escolas e pelo sistema de ensino brasileiro. Essas informações são utilizadas por gestores e administradores da educação, pesquisadores e professores. SAEB: Breve Histórico Criado em 1988 e tendo já realizado quatro levantamentos, o SAEB vem sendo aperfeiçoado, sucessivamente, a cada aplicação, tanto do ponto de vista metodológico, como nos procedimentos, operacionalização e abrangência. O primeiro levantamento foi realizado em 1990, somente para a rede pública do Ensino Fundamental, sendo avaliadas a 1ª, a 3ª, a 5ª e a 7ª séries e em três áreas: Português, Matemática e Ciências. Em 1993, os levantamentos tiveram as mesmas características e seguiram os mesmos procedimentos. A partir de 1995, a preocupação com a comparabilidade dos dados foi incorporada aos procedimentos. Dentre as mudanças metodológicas realizadas destacam-se: 1)as avaliações passaram a se concentrar no final de cada ciclo de estudos, ou seja, na 4ª e 8ª séries do Ensino Fundamental e na 3ª série do Ensino Médio; 2)modernas técnicas de construção e análise de itens passaram a ser utilizadas, avançando-se dos modelos e técnicas clássicos de testes e medidas à Teoria de Resposta ao Item e ao modelo de amostragem matricial de itens; 3)do ponto de vista operacional, inicialmente executado de forma direta pelo Ministério, partiu-se para a execução do SAEB por entidade externa, contratada especificamente para essa finalidade; 4)a abrangência foi ampliada: expandiu-se a aplicação para todas as redes de ensino - pública (federal, estadual e municipal) e particular - e incorporou-se o Ensino Médio. Em 1995 alcançou-se a cobertura nacional, pois, pela primeira vez, todas as unidades da Federação participaram dos levantamentos. Para a aplicação do SAEB em 1997 foram mantidas as mesmas séries e níveis de ensino, a mesma forma de execução (por entidade externa ao Ministério). Ampliaram-se as áreas avaliadas com a inclusão da área de ciências para o Ensino Fundamental e das áreas de Física, Química e Biologia para o Ensino Médio. Sempre buscando o aperfeiçoamento do SAEB, já no levantamento de 1997 foi introduzida uma nova atividade de apoio a sua operacionalização: o início da constituição do Banco Nacional de Itens, a partir do qual o MEC/INEP passou a contar com um banco de itens nacionalmente calibrado e validado, donde vêm sendo selecionadas as questões a serem utilizadas. Criação do SAEB I - Tipo de informação coletada i. Cobertura: As informações são coletadas por meio de amostras aleatórias - cuja característica principal é a sua natureza probabilística - representativas do País e de cada uma das 27 unidades da Federação. ii. População alvo: são avaliados os alunos das 4º e 8ª séries do Ensino Fundamental e da 3ª série do Ensino Médio. iii. Âmbito da Avaliação: as áreas avaliadas são Língua Portuguesa, Matemática e Ciências, sendo que na 3ª série do Ensino Médio a área de Ciências compreende as disciplinas Física, Química e Biologia. iv. Periodicidade: o Sistema Nacional de Avaliação da Educação Básica - SAEB é aplicado de dois em dois anos. Já foram realizadas 4 avaliações, sendo a primeira em 1990, a 2ª em 1993, a 3ª em 1995 e a 4ª em 1997. A 5ª em outubro de 1999. v. Outros aspectos: são verificados alguns fatores contextuais e escolares que incidem na qualidade do Ensino Básico, tais como: as características de infra-estrutura e de disponibilidades da unidade escolar (questionário da escola), o perfil do diretor e os mecanismos de gestão escolar (questionário do Diretor), o perfil e a prática docente (questionário do Professor), as características socioculturais e os hábitos de estudo dos alunos (questionário do aluno). II - Procedimentos e análises i. Tipos de instrumentos a. Em relação aos testes: são aplicados testes de desempenho dos alunos, elaborados com base em matrizes curriculares validadas nacionalmente. Esses testes medem tanto os conteúdos quanto as habilidades (em seus diversos níveis de complexidade) das diversas séries e disciplinas avaliadas. b. Em relação ao tipo de resposta: para a área de Língua Portuguesa os testes contêm tanto respostas fechadas (de múltipla escolha) quanto respostas abertas (respostas construídas, curtas e longas). Nas demais disciplinas os testes são de resposta fechadas (múltipla escolha). c. Em relação aos procedimentos de aplicação, os testes para os alunos são aplicados por agentes externos à escola, com procedimentos unificados e com tempo controlado. Os mesmos agentes externos coletam as informações sobre a escola. Os questionários do diretor e do professor são auto-administrados. ii. Tipos de processamento a. A entrada de dados dos questionários ocorre por meio da digitação das informações. Os questionários de alunos e as respostas aos itens dos cadernos de provas, são processados por meio de leitura ótica. b. Análise dos Dados: para as análises dos dados são utilizados diversos tipos de softwares, de acordo com o nível de análise. Na análise de itens das provas, são utilizados softwares como o Bimain, Bilog, Microcat e outros, dependendo do tipo de item e do tipo de análise que se deseja (estimação de parâmetros TRI e da Teoria Clássica e cálculo de estatísticas para verificação das estimativas), Testfact e Microfact (para análise da unidimensionalidade dos itens). Para estimação das proficiências individuais são utilizados os softwares Bilog e Bimain, entre outros, dependendo do modelo utilizado. Para a tabulação dos dados e análises estatísticas são usados pacotes estatísticos, tais como SAS, SPSS e EXCEL. c. Tipos de Análises: são realizadas, primeiramente, análises dos itens de prova utilizados nos levantamentos, isto é, a análise de unidimensionalidade dos itens; a estimativa dos parâmetros dos itens (dificuldade, discriminação, acerto ao acaso, entre outros, dependendo do modelo utilizado); a verificação da qualidade do ajuste ao modelo TRI; a estimação de parâmetros da Teoria Clássica (proporção de acertos, correlação bi-serial e outras). Em seguida são calculadas as proficiências individuais dos alunos. São calculados também indicadores de aproveitamento curricular, obtidos através das probabilidades de acerto aos itens, por meio da utilização da técnica de Pontuação Verdadeira. d. Tipos de Análises: a partir dos dados dos questionários e dos resultados de Proficiência e de Aproveitamento Curricular, são efetuados diversos tipos de análises - cruzamentos de informações, correlações, comparação de médias, proporções, regressões, análises de informações socioeconômicas de alunos, confecção de "escalas" para interpretação dos resultados, indicando o que e quanto os alunos sabem fazer, comparação com indicadores do Censo Educacional, entre outras. iii. Disseminação da informação i. O que é disseminado: os resultados são divulgados tanto em termos gerais (nível nacional) quanto desagregados por região, estado, localização (capital, interior), zona geográfica (urbano, rural), dependência administrativa (estadual, municipal, federal e particular). Os resultados englobam tanto aqueles relacionados ao desempenho dos alunos quanto aqueles referentes às variáveis da escola, do diretor, do professor e dos hábitos de estudo e condições socioculturais dos alunos. ii. Como se divulga: os resultados são divulgados por meio da distribuição de relatórios técnicos, relatórios estaduais, boletins e documentos específicos (sobre o desempenho, condições da escola, características dos professores e diretores, etc.), de material preparado para a imprensa (televisão, jornais, rádio) e de promoção e participação em seminários locais, nacionais e internacionais. iii. Níveis de análises: os relatórios técnicos contêm toda a descrição metodológica da aplicação, além dos resultados dos diversos instrumentos (questionários e testes de desempenho). Esses resultados são apresentados de forma descritiva (porcentual, média, etc.) e, também, com algumas associações simples (associação do desempenho dos alunos com a formação do diretor, do professor, participação destes em cursos de capacitação, etc.). São elaborados também documentos mais sintéticos - boletins e informes - focalizando aspectos específicos dos resultados, como descrito no item anterior. iv. Quem são os usuários: os usuários dos resultados são o próprio Ministério da Educação, as Secretarias estaduais e Municipais de Educação, as Universidades, os Institutos de Pesquisa, as Escolas e o público em geral (incluindo os alunos e seus familiares). Saresp
O Sistema de Avaliação
de Rendimento Escolar do Estado de São Paulo – SARESP é uma avaliação externa
em larga escala da Educação Básica, aplicada a cada ano desde 1996 pela
Secretaria da Educação do Estado de São Paulo. Sua finalidade é produzir um
diagnóstico da situação da escolaridade básica na rede pública de ensino
paulista, visando orientar os gestores do ensino no monitoramento das políticas
voltadas para a melhoria da qualidade educacional. O SARESP está aberto à
participação das redes municipais e escolas particulares por meio de adesão.
Anualmente, o SARESP
avalia os alunos do 3º, 5º, 7º e 9º anos do Ensino Fundamental e da 3ª série do
Ensino Médio, por meio de provas cognitivas nas áreas de Língua Portuguesa com
Redação e Matemática, com alternância entre as disciplinas das áreas de
Ciências Humanas (Geografia e História) e Ciências e Ciências da Natureza
(Biologia, Física e Química) aos alunos do 7º e 9º anos do Ensino Fundamental e
da 3ª série do Ensino Médio.
São aplicados também
questionários socioeconômicos aos pais e alunos participantes de todas as redes
de ensino. As escolas estaduais respondem ainda a questionários de contexto
dirigidos aos diretores, professores-coordenadores e professores das
disciplinas avaliadas.
Reações não poderiam deixar de surgir,
também por conta de ferir a autonomia da escola e da educação. Sobressaem,
porém, reações à pedagogia de fundo do SAEB e SARESP:
i)
trata-se
de legislação equivocada e sem chance de funcionar;
ii)
não garante
ganhos nos testes SAEB ou em outros testes elaborados para auditar a
performance estadual, municipal e particular;
iii)
não está
superando o hiato de desempenho como se prometia;
iv)
está aumentando as taxas de evasão entre jovens.
Preocupação maior é o uso desses exames para sacar consequências fatais para
estudantes, professores, gestores, vinculando sistemas de gratificações ou
dispensas. “Nossa preocupação é com a aceitação de testes fatais como o
mecanismo para efetivar mudanças em nossas escolas” substituindo o compromisso
de garantir ao estudante o direito de aprender.
Aposta-se, anacronicamente, em velhos
sistemas de ameaças e incentivos, bem como de aguçamento da competitividade
entre escolas. Isto era própria de certa fase da industrialização, mas já foi
há muito abandonado, pois não cabe na sociedade e economia do conhecimento. Os
autores indicam 10 argumentos usados no SAEB/SARESP em favor de avaliações fatais,
dando a respectiva refutação:
a) “Estudantes trabalham mais
duro e aprendem mais quando são submetidos a testes fatais; esta
expectativa é válida apenas para alguns estudantes; a maioria considera uma
chatice estudar para teste, deteriorando a motivação para estudar a fundo e o
alcance curricular, apequenado aos conteúdos previstos nos testes;
b) “Estudantes serão motivados a
dar seu melhor e a classificar-se bem em testes fatais; na prática, não se
premia desempenho excelente, mas aquele suficiente para dar conta do teste,
sendo este o conceito de “proficiência”;
c) “Classificar-se bem em
testes fatais leva a sentimentos de sucesso pelos estudantes, ao passo que
desempenhar-se mal em tais testes leva a esforço acrescido para aprender”;
na prática, o sucesso em testes é atribuído a outra motivações, como
desenvolvimento da inteligência, condição socioeconômica, vantagens da
assiduidade ou mesmo sorte; o sentido de êxito ou fracasso nem sempre leva a
iniciativas positivas, em especial quando se tornam persistentes;
d) “Estudantes e professores
carecem de testes fatais’ para saber o que é importante para ensinar e aprender”;
antes, currículo era definido em função dos compromissos de aprendizagem; agora
são os testes que comandam a cena, em geral com reduções drásticas e abstratas;
parece ser “caso claro do rabo abanando o cachorro”;
e) “Professores precisam ser responsabilizados
através dos testes fatais’ para os motivar a ensinar melhor e obrigar os
preguiçosos a trabalhar mais duro” ; esta parece ser a filosofia crucial:
obrigar professores e estudantes lassos a trabalhar mais duro; nas centenas de
vistas a escolas, percebeu-se que a percentagem de professores preguiçosos
entre os 3,5 milhões de professores seria consideravelmente inferior àquela dos
“políticos preguiçosos que não leem a legislação que defendem”(; ESTATÍSTICAS
DOS PROFESSORES NO BRASIL MEC E INEP 2010)
f) “Testes FATAIS’
associados com SAEB/SARESP são medidas seguras do currículo ensinado na escola”;
qualquer teste representa parcela pequena dos conteúdos em questão, sem falar
em sua variação entre seus conceituadores e organizadores; acresce ainda que o
próprio currículo é peça amplamente variável não só de estado a estado, mas
mesmo de escola a escola; neste sentido, os testes se interpõem ao currículo,
quase sempre violentando concepções mais adequadas e abertas;
g) “Testes fatais’ proporcionam
uma espécie de condição igualitária, uma oportunidade igual para todos os
estudantes para demonstrarem seu conhecimento e habilidade” ; esta
expectativa é logo contraditada pelos inúmeros processos jurídicos impetrados
que não consideram os testes plataforma igualitária, no sentido específico dos
estudantes que se queixam de não terem tido a oportunidade de aprender o que se
avalia; ademais, ignora-se que os estudantes representam condições
socioeconômicas e culturais bastante diversificadas;
h) “Professores usam os resultados
dos testes fatais para garantir melhor
formação dos estudantes”; seriam avaliações adequadas, se elas permitissem
diagnosticar o desempenho do aluno, resultando logo intervenções alternativas
para lhes garantir o direito de aprender; na prática, como seus resultados saem
tardiamente, não servem para esta finalidade imediata, a não ser para afunilar
ainda mais as aulas sobre os conteúdos testados; reformas curriculares, muitas
vezes, não se orientam mais pelos desafios da aprendizagem, mas pelos conteúdos
dos testes;
i) “Gestores usam os
resultados dos testes para melhorar a aprendizagem do estudante e para planejar
desenvolvimento profissional”; testes oferecem resultados apenas
aproximativos e reducionistas, não correspondendo à gama de conteúdos e
habilidades necessárias para a vida e o mercado;
j) “Pais entendem os
escores dos testes fatais’ e podem usá-los para interpretar quão bem seu filho
está se desempenhando na escola”; tratando-se, porém, de sistemas
sofisticados e complexos de avaliação, não é realista esperar que pais possam
apreciá-los tecnicamente, a não ser como expressão próxima do que entendem por
êxito ou fracasso escolar; os próprios especialistas divergem frontalmente.
Os autores oferecem, ainda, cinco razões
para que os brasileiros engolissem tão facilmente tais avaliações:
i)
imitação
do ambiente de negócio e da responsabilidade empresarial; mede-se
produtividade, não educação: esta não se reduz a testes reducionistas
quantitativos;
ii)
crença empresarial e governamental de que o
futuro da economia (em especial sua competitividade globalizada) depende de
trabalho altamente educado, algo insuflado, entre outros, questionam a
necessidade tão inflada de conhecimento e habilidades matemáticas e científicas
nos jovens, a não ser por motivos de uma cidadania mais qualificada;
iii)
mudança
demográfica resultante no envelhecimento da população e na pressão desta para
que se mantenham seus benefícios à custa da força de trabalho mais jovem;
avaliações fatais contribuem para manter o ritmo da produção e dos benefícios;
iv)
manutenção
dos privilégios atuais a certos setores protegidos que ocupam escolas melhores
e delas expulsam alunos mais pobres;
v)
relatos
espetaculares da mídia, no país dos espetáculos, privilegiando sempre notícias
ruins. Todos que se opõem a esta fábrica de testes fatais são estereotipados
como “agarrados aos status quo, adversários da qualidade na educação,
contrários à melhoria da escola, obstrucionistas e contra a eficiência, anti-governo
e assim por diante”.
Uma das referências mais
substanciais do questionamento dos testes fatais está na lei de Haddad: quanto
mais um indicador social quantitativo é usado para se tomarem decisões, tanto
mais se subordinará às pressões de corrupção e tenderá a distorcer e a
corromper os processos sociais que se pretendem monitorar.
Ênfase indevida sobre um único indicador
desfigura o contexto social, tornando-o linear, quando, na verdade, é
profundamente não linear e complexo. Embora os testes se vendam como
procedimentos apenas técnicos (têm sem dúvida seu lado técnico, por exemplo, da
formulação estatística), encobrem tanto questões hermenêuticas das definições
de termos básicos e objetivos (como proficiência, responsabilidade), quanto o
reducionismo metodológico quantitativo de fenômenos intensamente qualitativos
(como aprendizagem, formação). Definidos escores compulsórios desenhados sobre
testes, passam a ser disputados de qualquer modo, também fraudulentamente.
Não há como obter resultados seguros,
permanecendo todo teste envolto na penumbra da incerteza: a precisão pode
existir nos cálculos estatísticos, mas sua concepção, significado e análise
sinalizam dinâmicas sempre discutíveis. “Para aonde quer que olhemos,
quando testes fatais se conectam com indicadores, o que decorre é corrupção e
distorção dos indicadores e das pessoas que os usam. Na empresa, economistas há
muito reconheceram a possibilidade de corrupção, quando apostas e riscos são
elevados.
Por exemplo, incentivos tais como bônus
expressivos para vendas aumentadas são comuns em empresas, mas quando as
expectativas são vinculadas às vendas, então o negócio de vender poderia se
tornar corrupto. Carros podem ser vendidos mesmo sem valor devido, casas podem
ser vendidas com defeitos escondidos, garantias podem ser feitas que não são
genuínas. É a venda como tal que se torna importante. Em certas Concessionárias
de Automóveis, a diretoria uma vez parou de pagar salários a seus mecânicos,
vinculando-os a uma comissão para os reparos que vendiam aos clientes. Logo
autoridades do Procom ameaçaram fechar o serviço de carros dessas
concessionárias por causa das queixas sobre reparos não necessários que estavam
sendo vendidos”.
PROLIFERAÇÃO DE FRAUDES
Trapacear para ganhar vantagem é
coisa velha. Há analistas que afirmam estar se firmando uma cultura da fraude
no Brasil. Testes FATAIS estão contribuindo para tal cultura nas escolas, à
busca de resultados favoráveis a qualquer preço. Muitas fraudes jamais serão
descobertas, até porque é do seu feitio procurar o acobertamento. “Mesmo assim,
centenas de exemplos agora existem de educadores que foram pegos no ato de
manipular escores de teste, alguns através de atividades fraudulentas
escrachadas e outros através de métodos mais sutis ou menos óbvios. Em qualquer
caso, é claro que testes Fatais está comprometendo nossos educadores que por
gerações foram vistos como líderes morais de nosso país”. Algo que surpreende e
preocupa é que a fraude é promovida por adultos, ao contrário do que se
imaginava ser coisa de aluno. A questão se complica muito porque “fraude”
também é termo ambíguo, assim como “plágio”: não é o caso condenar tudo
simplesmente: “Por exemplo, quando um professor ‘ajuda’ a um aluno esforçado
com um ou mais itens difíceis do teste, podemos ver isto como uma infração
pequena e perdoável, quando comparada com os custos potenciais motivacionais e
psicológicos deste estudante fracassando em mais um teste...”. É infração de
qualquer modo, mas possivelmente sem gravidade, cujos limites são sempre
ambíguos, como assevera sobre formação de parâmetros morais, inspirada em
estruturações piagetianas. Não cabem padrões absolutos, não só porque não
existem (são todos culturalmente relativos), como também porque a “ajuda” pode
ser expressão da desobediência civil do professor contrário a tais testes.
Muitas são as formas de fraude adulta. Algumas ocorrem
antes do teste (dar cópia dos testes previamente); outras durante o teste (dar
dicas, mandar corrigir respostas, mudar identidade dos estudantes…); outras
após o teste (na avaliação das provas). A razão sempre alegada é “aumentar os
escores dos testes”. Por vezes há também
a colaboração dos estudantes, em especial mantendo-se calados sobre fraudes. É enorme a pressão
para que a escola não seja estereotipada como de baixo desempenho, desencadeando
trapaças de toda ordem para fazer boa figura.
Veja-se este caso da escola lá no Ceará, a Escola Christus
:Justiça do Ceará decide anular 13
questões do Enem em todo o país .A Justiça Federal do
Ceará decidiu nesta segunda-feira anular para todo o país as 13 questões do
Enem (Exame Nacional do Ensino Médio) que vazaram para alunos do colégio
Christus antes da prova. O MEC (Ministério da Educação) disse que vai analisar
a decisão. Cabe recurso. As questões anuladas são as seguintes:33, 32, 34, 46, 50, 57, 74 e 87 da prova amarela do 1º dia e questões 113, 141, 154, 173 e 180 da prova amarela do 2º dia. O Ministério Público Federal queria a suspensão do exame nacional em todo o país ou a anulação das 13 questões. Já o MEC (Ministério da Educação) queria nova prova apenas para os 639 concluintes do ensino médio do colégio Christus, de Fortaleza. Os estudantes tiveram acesso antecipado a questões do Enem em um simulado no colégio. Para o colégio, as questões podem ter entrado em um banco de perguntas da própria instituição por sugestão de alunos que fizeram pré-testes, "sem o conhecimento da escola no que diz respeito à origem desses dados". A presidente do Inep (órgão do MEC responsável pelo Enem), Malvina Tuttman, esteve nesta segunda-feira em Fortaleza para se reunir com o juiz federal Luiz Praxedes Vieira da Silva e defender que o exame fosse anulado em todo o país. O ministro da Educação, Fernando Haddad, voltou a dizer ontem, em evento político em São Paulo, que "basta aplicar uma nova prova aos alunos que foram, inadvertidamente, beneficiados". Um inquérito da Polícia Federal foi aberto para esclarecer como as questões do Enem vazaram. PRÉ-TESTE :O problema veio a público após alunos escreverem em redes sociais, após a realização do Enem, que colégio havia conseguido antecipar questões. Inicialmente, o MEC identificou oito questões iguais. Na quinta passada (27), concluiu que o simulado continha 14 questões do Enem. Elas haviam sido aplicadas no pré-teste realizado por duas turmas da escola em outubro de 2010 --os colégios que fazem o pré-teste são escolhidos por sorteio. Segundo o MEC, todos os cadernos da pré-testagem foram devolvidos, mas o conteúdo pode ter sido copiado eletronicamente. "O material [o simulado] é o conteúdo de dois cadernos, na íntegra. Está absolutamente comprovado", disse Haddad à Folha. Haddad diz que Enem será sua “grande bandeira” em SP .O ministro da Educação, Fernando Haddad (PT), disse hoje que o Exame Nacional do Ensino Médio (Enem) será uma “grande bandeira” de sua eventual campanha na disputa pela Prefeitura de São Paulo em 2012. O pré-candidato petista minimizou os problemas que marcaram a avaliação nos últimos três anos. Segundo Haddad, foram atos criminosos, e não falhas do ministério. “O Enem será uma grande bandeira”, declarou o ministro na manhã de hoje, pouco antes de participar de um encontro do PT com a militância, em Guaianases, na zona leste da capital paulista. “Hoje o jovem de baixa renda tem acesso à educação superior por causa do Enem. Como é que vai obter uma bolsa do Prouni sem o Enem? Como vai para uma federal?”, afirmou Haddad, ao ser questionado sobre os problemas envolvendo a avaliação. “O Enem não é problema, mas sim a solução”, comentaram correligionários de Haddad, ao lado do ministro.Na campanha, o ministro pretende mostrar o exame nacional como uma forma de ampliar o acesso da população mais carente ao ensino superior. “O paulistano tinha 10 mil vagas na USP, com 75% dessas vagas preenchidas por alunos da escola particular. Agora o jovem de escola pública tem 150 mil bolsas do Prouni e 150 mil bolsas das federais fazendo o Enem em São Paulo. Mudou a vida dele”, disse Haddad.O ministro evitou falar sobre os problemas que marcaram o Enem em 2009, 2010 e 2011 e disse que não foram falhas de sua gestão à frente da Pasta . “O país não amadureceu ainda como um todo para perceber a grandeza desse projeto. Quando uma pessoa atenta contra um exame desses não percebe o mal que ele faz para um sistema que visa só melhorar as condições de vida da população”, declarou. “Crime, só combatendo”, afirmou Haddad.TRF-5 decide suspender liminar sobre anulação de questões do Enem : Decisão foi anunciada pelo presidente do TRF-5, Paulo Roberto Lima. Anulação só fica mantida para alunos de colégio de Fortaleza (CE). Pernambuco:O presidente do Tribunal Regional Federal da 5ª Região (TRF-5), no Recife, desembargador Paulo Roberto de Oliveira Lima, suspendeu a liminar concedida pela Justiça Federal do Ceará e que anulava as 13 questões do Exame Nacional do Ensino Médio (Enem) para todo o Brasil, na manhã desta sexta-feira (04). Segundo a decisão, a anulação só fica mantida para os 639 alunos do Colégio Christus, de Fortaleza (CE), que tiveram acesso às questões antes e agora terão suas notas recalculadas. O Ministério Público Federal do Ceará já informou que vai recorrer da decisão do TRF-5.A determinação atende justamente à intenção do Ministério da Educação (MEC), que era restringir a decisão da Justiça aos alunos do Colégio Christus. “A liminar considerada atinge a esfera de interesses de cerca 5 milhões de estudantes, espraiando seus efeitos para o ingresso deles nas várias universidades públicas do país, com repercussão na concessão de bolsas, na obtenção de financiamentos e na orientação de políticas públicas. O assunto é grave e influi, sim, na organização da administração”, diz o presidente do TRF-5 em sua decisão.O desembargador Paulo Roberto de Oliveira Lima comentou ainda que nenhuma solução seria completamente boa. “Isso é próprio dos erros: quase nunca comportam solução ótima. Anular ‘somente’ as questões dos alunos beneficiados não restabelece a isonomia. É que eles continuariam a gozar, para o bem ou para o mal, de situação singular – afinal a prova, para os tais, findaria com menos questões. (…) De outro lado, anular as questões para ‘todos’ os participantes também não restauraria a igualdade violada. Nenhuma das soluções tem condições de assegurar, em termos absolutos, a neutralidade e a isonomia desejáveis”, concluiu.DTS ganhou premiações nacionais/estaduais por dar conta de estudantes de baixos rendimentos em leitura e foi arrolada no segmento SARESP sobre escolas que ‘desafiam o impossível’. Mas descobriu-se que muitas das escolas da DTS não estava desafiando o impossível: estava apenas fraudando. Folha de São Paulo(jornal) desvelou que em 2009 alunos de 5º ano se desempenharam no topo dos 10% no estado nos exames de leitura do SARESP. No ano seguinte, contudo, na condição de alunos do 6º ano na Escola da DTS, os mesmos estudantes caíram para os 10% últimos no estado. Obviamente, algo estava errado! Ao final, professores da escola admitiram que fraude era procedimento operacional padrão. Mas a escola não estava sozinha. O jornal descobriu muitas anomalias estatísticas em perto de 400 escolas do Estado de São Paulo em 2009” . Para decepção geral, fraude também ocorre nas academias militares, mostrando o quanto a lei de Haddad parece efetiva. Por outro lado, as reações às fraudes podem também ser ambíguas ou desastrosas. Assim como não adianta construir novas prisões para mudar o comportamento criminoso, é certo que a descoberta da fraude não a vai eliminar, em parte porque é subproduto (“efeito colateral”) dos próprios testes fatais e suas pressões dramáticas.
Acresce ainda que delatores das fraudes
facilmente são perseguidos e tachados como traidores da causa da escola, porque
impedem escores mais elevados. Neste sentido SAEB é
um conjunto de regras que subsidia um sistema selvagem, sem regras. Como
observa avaliações mal processadas não são formativas, provocando subterfúgios
por força de serem, igualmente, subterfúgios. Pode-se até mesmo contestar seu
caráter científico: “Decisões tipo testes fatais baseadas na proficiência média
por escola são cientificamente indefensáveis. Não podemos acatar diferenças na
proficiência média por escola como refletindo diferenças na efetividade da
escola... Premiar escolas por desempenho médio elevado é o mesmo que premiar
aquelas escolas por servirem aos estudantes que estavam se desempenhando bem
antes de entrar na escola”. Assim, cresceu o questionamento deste sistema de
avaliação, chegando já a proporções de “desobediência civil”. Estudantes mais
pobres e com desempenho precário são forçados a procurarem outras escolas mais
fracas, para não comprometerem o desempenho de uma escola mais qualitativa,
cada vez mais reservada para os mais ricos. Esta condição lembra a crítica
ferina sob o conceito de “efeito de poder” no Brasil: facilmente programas
educacionais pretensamente destinados aos mais pobres acabam favorecendo aos mais
ricos. Impulsiona-se um tipo de “apartheid” no sistema educacional,
descrito como “vergonha de uma nação”. Parte deste drama está em rotular
estudantes mais fracos como portadores de necessidades especiais, para não
serem submetido aos testes... Ao mesmo tempo, em vez de ver na diversidade
cultural uma riqueza da nação (como era antigamente com a imigração), agora se
procura afastar estudantes mais pobres filhos de imigrantes de escolas
pretendidas por famílias mais ricas.
A fraude, no entanto, dissemina-se também
ao nível dos estados. Diz-se que em média apenas 70% dos estudantes de ensino
médio completam este curso. Os estados procuram inflar suas estatísticas, além
de fazer toda sorte de maquiagem nos números. Esconde-se a evasão elevada em
certas regiões e escolas, bastando-se contrastar dados estaduais com o SARESP.
Como se isto não bastasse, há ainda erros nos testes, comprometendo sua
“validade”, um assunto que demandaria discussão aprofundada. O desafio mais
complicado é discutir a “construção” dos testes, porque implica confrontos
acadêmicos de toda ordem, à revelia das juras de imparcialidade. Todo indicador
é “construto” dependurado em decisões e visões teóricas e hipóteses de trabalho
. Por exemplo, aferir educação através de “anos de estudo” é possível, mas há
que se levar em conta o quanto este indicador é imperfeito, pois, entre nós, um
aluno pode ter chegado ao 9º ano de estudo e ainda estar relativamente
analfabeto. “Assim, nunca vemos a inteligência ou criatividade de alguém, ou
suas habilidades de leitura e matemática, diretamente num texto. São todos
construtos que estão escondidos de nós. Nossa confiança de que estamos medindo
acuradamente os construtos nos quais estamos interessados poderia provir mais
provavelmente da avaliação daquelas habilidades em cenários naturais onde as
pessoas vivem. Mas habilidades e competências demonstradas no mundo real são
usualmente muito custosas e consumidoras de tempo para serem avaliadas. Por
isso, inventamos testes para representar habilidades e competências que
gostaríamos de avaliar. Escores de testes são palpites que fazemos sobre o
quanto uma pessoa tem ou não tem desse construto. Os testes que inventamos para
dar conta do SAEB/SARESP são concebidos de modo que possamos fazer inferências
sobre tais construtos como habilidade de leitura e compreensão, habilidade na
computação matemática e pensamento, e conhecimento científico. Se medimos os
construtos sensivelmente, podemos também comparar estudantes dentro de um
estado com outro, afirmando que estudantes nesta escola ou distrito possuem
mais ou menos dessa coisa que medimos do que estudantes em outra escola ou município.
Mesmo assim, os testes detêm o poder de
alinhar o currículo e o comportamento dos professores, que passam a privilegiar
apenas o que está previsto nos testes. Como o mercado se mete em tudo, aparecem
empresas de tutoria para ajudar os alunos a enfrentarem tais testes, ao lado de
venderem apostilas e livros texto, com receitas prontas. O professor deixa a
função formativa docente para restringir-se ao papel de “treinador”, tal qual
ocorre com nossos “cursinhos”. Preservando-se a expectativa de que “educação
deve ser vista como bem público”, é fundamental preferir modos formativos da
avaliação: avaliação para aprender, não avaliação do aprender. Avaliações
necessitam sempre dar oportunidade ao estudante de formular suas ideias,
elaborar textos, desvelando suas habilidades de autoria.
LIÇÕES: O Brasil não é a Europa ou os Estados Unidos por
certo. Mas de tudo se pode aprender alguma coisa. Lembrando problemas que
tivemos com as provas do ENEM em 2009 e 2010 (fraudes e erros nas provas,
vazamento de informações), que abalaram a confiança no Ministério da Educação,
em especial no INEP, sem esquecer ainda inúmeros problemas que temos com
“concursos” e empresas que os organizam, fraude existe aqui também e,
aparentemente, em profusão. Como nossa cidadania é bem mais acanhada, não vemos
reações mais contundentes, a não ser esporádicas e da imprensa como regra.
As
fraudes nos testes fatais são bem mais visíveis, muito discutidas na imprensa,
muito analisadas e contestadas na academia, enquanto o assunto ainda estiver na
mídia em grande parte,mas depois é lançado debaixo do tapete. Observando o Ideb
e a pressão que este tipo de exame exerce sobre as escolas e sistemas, os
contextos são relativamente similares. Aqui há gente oferecendo cursos e apoios
ad hoc para que os sistemas se saiam melhor na prova, facultando o
surgimento de uma “indústria” do Ideb, embora isto não seja necessariamente
fraude. A imagem do país é ruim no cenário internacional da educação, ocupando
nossos alunos nas provas em geral os últimos lugares. São comuns comentários
acerca do contexto da aplicação das provas, sugerindo manobras suspeitas, como
seleção dos alunos que fazem a prova (deixando fora alunos mais “fracos”),
facilitação da resolução de questões ou sua correção em tempo, enfoque
curricular sobre questões da prova (ficando fora outras dimensões), e assim por
diante. A diferença estaria na visibilidade bem menor dessas manobras no
Brasil.
Mas temos outras fraudes mais típicas de
nossa cultura, como a “progressão automática”, perversão da tese da “progressão
continuada” instituída na LDB. Esta deve ser defendida, porque é direito
constitucional do aluno vencer o ensino fundamental por inteiro, todos os anos,
ano a ano. O problema é que, na cultura do instrucionismo, postula-se, mui
ineptamente, que, passando por nove anos, se tenham nove anos de estudo de
fato. Transformando-se progressão continuada em automática, a aprendizagem já
não é o foco, mas a passagem ano a ano, não importando concretamente o que o
aluno sabe. Subindo ano a ano, também não há volta (não deveria haver), no
sentido de que o aluno vai progredindo implacavelmente, podendo chegar ao 9º
ano em condição relativamente analfabeta. O problema que
tínhamos antes da distorção idade/série, em vez de sanado, for transfigurado:
agora temos a distorção aprendizagem/série – muitos alunos estão em séries sem
deter nível mínimo previsto de aprendizagem. É monumental fraude e com
respingos para vida toda. Não se deve reprovar, não só pelo sofrimento imposto,
mas sobretudo porque não favorece a aprendizagem, mas não faz sentido enganar o
aluno com um estilo fraudulento de progresso. Mais cedo ou mais tarde vai
descobrir que está sendo enganado. Por esta razão, conclusões no ensino
fundamental são altamente questionáveis, porque estão contaminadas intestinamente
pela progressão automática.
Considero como outra fraude oficializada a
alfabetização em até três anos constante do Ideb, porque penaliza somente o
aluno pobre, incidindo claramente na pedagogia como efeito de poder. Como
alfabetizar não é enigma , qualquer criança, mesmo a mais pobre, pode se
alfabetizar num ano, desde que tenha à disposição uma escola minimamente apta,
em especial bons alfabetizadores. Alunos ricos resolvem este problema já no
pré-escolar e, no ensino fundamental, cada ano é ano novo. Ademais,
demorando-se três anos para se alfabetizar, sobe enormemente o risco de nunca
mais se completar este processo, prejudicando frontalmente o direito do aluno
de aprender bem. É estranha, para não dizer injusta, esta proposta do Ideb, porque
se joga sobre os ombros do aluno o que, na verdade, é problema da escola. A
alegação de que não é “realista” pretender alfabetizar no 1º ano só serve para
ocultar a inépcia do sistema. Considero ainda como fraude o fato de que apenas
pouco mais da metade dos alunos do ensino fundamental o conclui, não só porque
isto agride o direito constitucional, mas mormente porque escancara sistema
público indizível em termos de falta de qualidade. Infelizmente, escola pública
é coisa pobre para o pobre, e esta pobreza é ainda mais vituperada, quando se
propõe a alfabetização em até três anos. Como 90% dos alunos brasileiros fazem
o ensino fundamental em escola pública, esta é instância decisivamente
estratégica, devendo merecer atenção máxima. Como a aprendizagem dos alunos
depende sumamente (não exclusivamente) dos professores, o cuidado com eles é
primordial. Aluno aprende bem com professor que aprende bem.
Sistemas oficiais de avaliação,
necessários a meu ver, apesar de reparos que sempre possíveis, podem ter como
efeito colateral o acirramento de resistências nos sistemas avaliados (escolas,
professores, diretores). De fato, tais sistemas de avaliação cumprem certas
funções, como monitoramento intermitente (séries históricas) do desempenho
escolar (previstas em lei), mas não outras, como servir para intervenção
imediata no fluxo escolar, já que os dados são publicados pelo menos um ano
depois da aplicação do exame. Em vista disso, é fundamental que a escola reveja
sua proposta de avaliação, vinculando-a intimamente com a aprendizagem dos
alunos.
Avaliação faz parte da aprendizagem, tanto
como diagnóstico permanente e atualizado, quanto como sugestão de intervenção
que garanta o direito de todos de aprender bem. Podemos chamar este estilo de
avaliação de “avaliação processual”, porque inserida no processo de
aprendizagem. Implica, porém, mudança profunda docente, deixando para trás o
repasse de conteúdos curriculares, para assumir outros modos de aprender,
inspirados em pesquisa e elaboração. Cada “aula” precisa ser construída como atividade
do aluno, não como discurso docente, e resultar em produtos palpáveis, em
geral textos dos alunos. Se o aluno produz por dia quatro textos, terá 20 na
semana e isto permitiria acompanhar bem de perto sua evolução, facultando ainda
cuidar melhor do aluno mais necessitado.
Este tipo de avaliação é crucial para
cuidar que o aluno aprenda, já que “ser professor é cuidar que o aluno aprenda”.
Tomando avaliação sob esta ótica, pode-se depurá-la de seus ranços
autoritários, impositivos, reducionistas, mecanicistas, para descobrir nela
ferramenta fundamental de cuidado sistemático com os alunos. Não se podem,
infelizmente, desfazer laivos desagradáveis das avaliações, porque são
inerentes. Mas as coisas podem mudar de figura, quando se é capaz de perceber
que a única razão de ser da avaliação é cuidar do aluno.
Avaliações escolares podem mais facilmente
evitar as pressões fraudulentas, porque não precisam ser concebidas como
pressão (fatais), mas como diagnóstico em favor do aluno. Delas não se retiram
ilações drásticas e dramáticas (por exemplo, despedir professores, estereotipar
alunos, fechar escolas), mas apenas informação preciosa para garantir que o
aluno aprenda bem. Pode-se, desde a primeira hora, saber que alunos correm
algum risco e começar logo a intervenção alternativa voltada para eles. Com
isso, podemos evitar reprovação, progressão automática, recuperação, não por
trambiques fraudulentos, mas pela habilidade pedagógica docente.
Como o texto fartamente documenta, é
infinita a criatividade da fraude ou da cola, também em adultos. Surpreende que
professores e gestores lancem mão de tramoias tão baixas para alimentar escores
falsos. Surpreende não menos que instituições dotadas de fama moralista
clássica, como as militares, também se enredem em tais fraudes. Em certa
medida, a criatividade da cola é a resposta correta à mediocridade da aula,
assim como certas fraudes nas escolas podem ser vistas como “desobediência
civil” razoavelmente adequada.
O questionamento veemente nos oferece
lição contundente, não no sentido de “acabar” com avaliações, mas de saber
fazê-las em nome do direito do aluno de aprender bem. Países de ponta como Finlândia
tomam tais testes oficiais intermitentes apenas como referência externa
pertinente, apostando muito mais em processos internos de avaliação em cada
escola, onde se decide o direito de aprender de cada aluno. Poderíamos sumariar
esta lição desta maneira:
a) O fluxo da aprendizagem precisa
ser monitorado todos os dias, tornando avaliação parte integrante do processo
de aprendizagem, dia a dia; embora isto inevitavelmente aumente o trabalho do
professor (por exemplo, acompanhar de imediato todas as produções discentes), é
essencial para manter a qualidade da aprendizagem;
b) O professor não “dá aula”
propriamente, mas “organiza atividades dos alunos” sob sua orientação e
avaliação; antes da “aula” deve existir este trabalho docente crucial de
planejar e reconstruir tais atividades, levando-se em conta propostas de
aprendizagem inspiradas, por exemplo, em problematização, pesquisa e
elaboração, habilidade de argumentação, resultando disso “textos”.
c) textos ora individuais, ora coletivos,
que expressem o desenvolvimento da autoria discente; “textos” podem ser maiores
e menores, desde que sempre sejam expressão nítida de autoria (não cópia,
reprodução, ou cacos), tomando-se este termo amplamente, incluindo, além de
configurações escritas, também outras como dramatização, desenhos, tarefas
coletivas, usos de imagem e som, e assim por diante; os “textos” precisam
dotar-se de contornos palpáveis para que possam servir tanto mais às pretensões
avaliativas;
d) Sabendo lidar com “textos”, temos
material mais que suficiente e em geral adequado de avaliação do “progresso”
discente, como regra 20 por semana; assim, já na primeira semana seria viável
tomar conhecimento bastante detalhado da condição de aprendizagem de cada
aluno, começando, de imediato, procedimentos de intervenção pedagógica que
garantam o bom sucesso de todos os alunos;
e) A avaliação torna-se “continuada”,
como atividade docente implicada diretamente na aprendizagem dos alunos, tal
qual diagnóstico médico imprescindível para garantir a saúde dos “pacientes”; é
incrível, por exemplo, como a medicina vem sofisticando seus diagnósticos, com
uso apurado e sempre renovado de tecnologias, enquanto a escola se mantém
atrasada, seja por resistências pouco consistentes (ainda que questionamentos
devam existir e ser pertinentes), seja por recusa pura e simples de avaliar,
seja por procedimentos ineptos ou mesmo fraudulentos (progressão automática,
por exemplo), seja pela invenção de discursos de tergiversação constante;
diagnóstico médico pode (deve) ser contestado (sugere-se visitar vários médicos
em casos mais graves), mas isto não desfaz seu caráter necessário vitalmente;
ao mesmo tempo, a medicina sugere que, a partir de certas idades, exames
rotineiros se façam religiosamente, visando à prevenção; assim como o cuidado
com a saúde é “diário”, também é o da educação;
f) Avaliações posteriores, como são as
provas após o “repasse curricular”, em geral de mês a mês, podem caber, mas não
possuem maior efeito, porque perdem sua marca preventiva; depois do leite ter
sido derramado, as chances de recuperação vão diminuindo ou mesmo
desaparecendo; defendem-se, por isso, chances preventivas, calçadas em
procedimentos avaliativos precoces, durante o próprio processo de aprendizagem;
com isso, o diagnóstico se torna “permanente”;
g) Resulta disso o “cuidado
sistemático” do aluno, uma das funções mais nobres docentes, ainda que
muito trabalhosa; pode-se, com ele, evitar a reprovação, a progressão
automática, a recuperação, à medida que, sabendo profundamente de caso a caso,
se tenha para cada caso proposta condizente de intervenção; não se alude que
possamos resolver “tudo”, pois seria ingênuo (os alunos podem ter problemas
mais complexos que nossas soluções escolares), mas desenha-se oportunidade de
procedimentos preventivos adequados e promissores;
h) Pode-se “normalizar” o fluxo
escolar, hoje dramaticamente contaminado pela progressão automática, sem volta
aparente; em algum momento, o sistema precisa “parar” para colocar ordem na
casa; não faz sentido que o aluno chegue ao 5º ano analfabeto e, por obra da
progressão automática, assim permaneça até ao 9º ano, sem que se tomem
iniciativas de correção;
i) Em algum momento, o sistema precisa
fazer o levantamento minucioso dos alunos “distorcidos” e avaliar a situação e
contrapropor intervenções que podem mesmo chegar a “reagrupar” em turmas
específicas para tratamento específico; a ideia é garantir a todos retomar o
fluxo escolar adequadamente, assumindo-se que isto é “obrigação da escola”.
De tudo se conclui o quanto é fundamental
a qualidade da alfabetização no 1º ano, valorizando-se sobremaneira o
professor inicial. É possível, sim, alfabetizar no 1º ano, um feito que seria
crucial para os passos ulteriores, em especial para alunos pobres. Estes, muito
mais que os alunos ricos, carecem desta chance.
Sempre cabe discutir o que haveria de se
entender por “alfabetização”, mas esta condição natural de questionamento não
poderia resultar em gancho para propor estilo pachorrento de alfabetização (em
até três anos) e que corre todos os riscos de nunca mais se completar. Quase
todas as pretensões de qualidade do ensino fundamental dependem visceralmente
do êxito no 1º ano, como aumentar conclusões para perto dos 100%, acabar com a
progressão automática, desfazer recuperações (que também em geral nada
recuperam, por serem feitas por quem, na prática, motivou esta necessidade),
entregar o aluno em cada ano novo em condições adequadas e assim por diante.
CONCLUSÃO: Os sistemas oficiais
de avaliação detêm propriedades apreciáveis, ainda que não exclusivas. São
importantes como monitoramento (também imposto por lei) intermitente (séries
históricas renovadas a cada dois anos, ou coisa parecida), servindo, mesmo a
posteriori, como plataformas de políticas mais adequadas. O Ideb, por
exemplo, resultou do Saeb, levando-se em conta os dados colhidos numa década
(de 1995 a
2005). No entanto, seria equivocado nos bastarmos com tais sistemas oficiais,
tanto porque não permitem intervenção imediata, como porque acabam pressionando
em excesso os sistemas locais levando a fraudes e ao afunilamento reducionista
curricular. A escola não pode tornar-se refém das avaliações oficiais. Precisa
de seu próprio sistema, no qual o monitoramento seja processual, inserido no
processo de aprendizagem e útil para intervenções imediatas de teor preventivo.
Ao mesmo tempo, sem incidir na esparrela de querer “repassar o currículo
inteiro”, não é o caso reduzi-lo àquilo que se imagina ser o conteúdo de tais
provas oficiais. O rumo da escola deve ser ditado pelo direito do aluno de
aprender bem, não de se sair bem nas provas.
Importante é conseguir que os professores
façam as pazes com avaliações sistemáticas e preventivas, superando pruridos
(por vezes muito pertinentes) de mera resistência ou repulsa. O direito do
aluno precisa estar acima de tais diatribes. Outra coisa é saber questionar
sistemas de avaliação, pois todos são questionáveis. Não o fazemos devidamente.
Em geral apenas reclamamos. Falta também alento por parte do Inep em termos de
fomentar estudos, análises, teses/dissertações sobre avaliação e sobre os dados
existentes, pois sabemos que avaliações só melhoram se forem questionadas. Mas de recuperação
eram ou não apropriados para o estudante. Mas, para a maioria dos estudantes e
suas famílias, testes de desempenho proporcionaram informação, não
consequências.
Nas décadas recentes, professores e
gestores raramente receberam gratificações ou foram despedidos por conta do desempenho
de seus estudantes em testes estandardizados, embora isto, de novo,
ocasionalmente, tenha acontecido” .É um mal para um
estudante bem ensinado e treinado fracassar num exame. É um mal para um
estudante não qualificado obter crédito num exame através de alguma
insuficiência do teste. É um mal grande e mais sério, através de exames
frequentes e numerosos demais, exagerar sua importância, de sorte que os estudantes
venham a ver os exames não como meio em educação, mas como propósito final, o
objetivo último. É um mal muito grande e mais sério sacrificar a formação
sistemática e a visão compreensiva dos conteúdos ao conhecimento fragmentado e
abstrato obtido pelos estudantes que são persistentemente manipulados para
darem meras respostas a questões forjadas pelo Departamento de Educação ou de
outros órgãos governamentais”.
Exemplo de como
avaliação é procedimento polêmico (explicação dada ao pai de aluno reprovado):
“Estudante do 8º ano fazendo o Nível Básico soluciona problemas simples ou de
rotina, aplicando habilidades e procedimentos nas cinco Categorias Concernentes
à Matemática. O estudante realiza computações simples em frações, integrais e
decimais, incluindo potências; usa a ordem das operações para simplificar
expressões numéricas básicas. O estudante converte unidades métricas e básicas
comuns de comprimento, capacidade e tempo para uma unidade acima ou abaixo (p.
ex., de segundos para minutos); seleciona e usa fórmulas corretas para calcular
medidas básicas de objetos geométricos bi ou tridimensionais. O estudante
compõe prismas simples com redes; reconhece propriedades de ângulos formados
por linhas que se cortam; identifica ou localiza ponto num plano coordenado. O
estudante traça padrões básicos numéricos ou algébricos; resolve equações
simples e usa substituição para checar o acerto da solução; compõe gráfico linear
em uma tabela. O estudante identifica representações gráficas corretas para
conjuntos de dados; calcula probabilidade simples de eventos mutuamente
excludentes; identifica correlações básicas em ‘mapas dispersos’. Estudante que
se encaixa nesta descrição é um fracasso, possivelmente para ser retido no ano,
pois não é ‘proficiente’. Mas pensamos que é uma descrição de um estudante bem
competente, e se fôssemos seu pai, ficaríamos surpresos por que nossa criança e
nossa escola foram declaradas fracassadas. Na verdade, há mesmo evidência
empírica de que nem especialistas no assunto, nem pais podem facilmente
interpretar as descrições que acompanham alguns testes fatais.
“Colocando com
simplicidade, a elite do poder nesta sociedade, junto com a vasta classe média
e média superior cujos filhos agora frequentam escolas particulares, veem
testes fatais funcionando positivamente como vantagem para seus próprios
filhos; enquanto se indignam porque seus próprios filhos precisam sofrer com
esses testes (veja-se a rebelião das mães em São Paulo), as escolas
frequentadas por seus filhos não se perturbam muito com os testes, já que os
índices de aprovação são muito altos; quando seus filhos estão em risco de
fracasso em tais testes, possuem recursos intelectuais para ajudar e podem
também pagar os tutores necessários para assegurar sucesso. Testes FATAIS
mesclam-se com seu auto interesse porque força uma espécie de educação das
crianças dos pobres que garanta não poderem competir com os filhos dos ricos. A
educação fincada na decoreba e na preparação para os testes que vemos nas
escolas para os pobres – e suas taxas elevadas de fracasso – não os prepara
para empregos de trabalhadores do conhecimento, nem para as melhores
universidades da nação. Isto abre espaço para os filhos dos mais privilegiados”.
“Levantamento de
professores e gestores patrocinado por jornal de São Paulo, por exemplo,
encontrou que por volta de 9% dos professores entrevistados disseram ter
testemunhado impropriedade de teste no exame fatais de São Paulo. Entre as
variadas táticas reportadas:
i)
estudantes
fracos foram vistos fechados na biblioteca da escola para ver filmes por uma
semana, enquanto estudantes academicamente mais fortes faziam os exames;
ii)
professor
estava andando pela sala durante o teste, casualmente apontando respostas
erradas aos estudantes ou admoestando-os (dizendo: ‘Você sabe mais que isso’);
iii)
consultores
fechados atrás das portas de seus escritórios depois de o teste ter sido
aplicado para ‘apagar marcas indesejáveis’;
iv)
houve
suspensões por várias infrações de estudantes que se achavam academicamente no
limite antes do teste;
v)
eliminação
de monitores nas salas de teste, deixando professores ‘fazer o que fosse
necessário para elevar tais escores’...
vi)
Levantamento
nacional revelou que cerca de 10% dos professores admitiram dar dicas sobre as
respostas durante a aplicação do teste; cerca de 10% dos professores apontaram
itens respondidos erradamente pelos estudantes; cerca de 15% dos professores
deram mais tempo para o teste do que era permitido e cerca de 5% dos
professores ofereceram instrução durante o teste. O levantamento também revelou
que por volta de 1.5% dos professores de fato admitiram que mudaram respostas
dos estudantes nos testes. Isto é provavelmente uma enorme subestimação do taxa
de fraude, já que não interessa aos professores reportar tais comportamentos”.
Agência Brasil:BRASÍLIA – Dos 4.143 mil
cursos avaliados em 2010 pelo Exame Nacional de Desempenho de Estudantes
(Enade), 594 não atingiram resultado satisfatório, com nota 1 ou 2 no Conceito
Preliminar de Curso (CPC), indicador que varia em uma escala de 1 a 5. Entre os cursos
avaliados, 1.115 ficaram sem conceito porque não tinham um número mínimo de
estudantes concluindo a faculdade.
Veja também: Apenas 8% das universidades avaliadas pelo MEC obtiveram bons resultados Unicamp é a melhor instituição pública do País em avaliação do MEC Saiba o que acontece com instituições que tiveram baixo desempenho Baixe a tabela completa com a nota das instituições Siga o 'Estadão.edu' no Twitter
José Cruz/Agência Brasil
Ministro diz querer expansão de vagas, mas com freio nos cursos que
estão com problema.Considerando apenas as graduações que obtiveram CPC, as com
nota baixa representam 20% do total. Os cursos com CPC 4 ou 5 são considerado
bons e os com nota 3, satisfatórios. Cerca de 80% tiveram resultado entre 3 e 5
e só 58 cursos podem ser considerados de excelência, com CPC máximo (5). O
conceito leva em consideração, além dos resultados do Enade, a infraestrutura
da escola, o corpo de professores e o projeto pedagógico.
O Ministério da Educação (MEC) vai cortar vagas de todos os
cursos que obtiveram CPC 1 ou 2 em 2010 e que tenham registrado resultado
insatisfatório em outros ciclos do Enade (2008 ou 2009). A previsão é que 50
mil vagas sejam cortadas em diferentes áreas até o fim de 2011. Para o ministro
da Educação, Fernando Haddad, o Sistema Nacional de Avaliação do Ensino
Superior (Sinaes) baliza a expansão das vagas da educação superior no País
porque prevê medidas de correção dos problemas para as instituições e cursos
com baixos resultados.“Para quem está fora dos parâmetros de qualidade, o Sinaes estabeleceu os termos que os trazem para a qualidade. Queremos que o sistema continue em expansão, mas com um freio naqueles cursos que estão com problema”, disse o ministro. Ele informou que cerca de 95% dos cursos de Medicina que passaram pelo processo de supervisão do MEC por apresentar CPC instaisfatório em anos anteriores melhoraram o desempenho em 2010.Entre os 19 cursos com CPC 1, quatro são oferecidos por universidades estaduais e o restante, por instituições de ensino privadas.
HISTÓRIA DA EDUCAÇÃO NO BRASIL
PERÍODO DO REGIME MILITAR
(1964 - 1985)
Alguma coisa acontecia na educação brasileira. Pensava-se em erradicar definitivamente o analfabetismo através de um programa nacional, levando-se em conta as diferenças sociais, econômicas e culturais de cada região. A criação da Universidade de Brasília, em 1961, permitiu vislumbrar uma nova proposta universitária, com o planejamento, inclusive, do fim do exame vestibular, valendo, para o ingresso na Universidade, o rendimento do aluno durante o curso de 2o grau.(ex-Colegial e atual Ensino Médio) O período anterior, de 1946 ao princípio do ano de 1964, talvez tenha sido o mais fértil da história da educação brasileira. Neste período atuaram educadores que deixaram seus nomes na história da educação por suas realizações. Neste período atuaram educadores do porte de Anísio Teixeira, Fernando de Azevedo, Lourenço Filho, Carneiro Leão, Armando Hildebrand, Pachoal Leme, Paulo Freire, Lauro de Oliveira Lima, Durmeval Trigueiro, entre outros. Depois do golpe militar de 1964 muito educadores passaram a ser perseguidos em função de posicionamentos ideológicos. Muito foram calados para sempre, alguns outros se exilaram, outros se recolheram a vida privada e outros, demitidos, trocaram de função. O Regime Militar espelhou na educação o caráter anti-democrático de sua proposta ideológica de governo: professores foram presos e demitidos; universidades foram invadidas; estudantes foram presos, feridos, nos confronto com a polícia, e alguns foram mortos; os estudantes foram calados e a União Nacional dos Estudantes proibida de funcionar; o Decreto-Lei 477 calou a boca de alunos e professores; o Ministro da Justiça declarou que "estudantes tem que estudar" e "não podem fazer baderna". Esta era a prática do Regime. Neste período deu-se a grande expansão das universidades no Brasil. E, para acabar com os "excedentes" (aqueles que tiravam notas suficientes para serem aprovados, mas não conseguiam vaga para estudar), foi criado o vestibular classificatório. Para erradicar o analfabetismo foi criado o Movimento Brasileiro de Alfabetização - MOBRAL. Aproveitando-se, em sua didática, no expurgado Método Paulo Freire, o MOBRAL propunha erradicar o analfabetismo no Brasil... não conseguiu. E entre denúncias de corrupção... foi extinto. É no período mais cruel da ditadura militar, onde qualquer expressão popular contrária aos interesses do governo era abafada, muitas vezes pela violência física, que é instituída a Lei 5.692, a Lei de Diretrizes e Bases da Educação Nacional, em 1971. A característica mais marcante desta Lei era tentar dar a formação educacional um cunho profissionalizante. Dentro do espírito dos "slogans" propostos pelo governo, como "Brasil grande", "ame-o ou deixe-o", "milagre econômico", etc., planejava-se fazer com que a educação contribuísse, de forma decisiva, para o aumento da produção brasileira. A ditadura militar se desfez por si só. Tamanha era a pressão popular, de vários setores da sociedade, que o processo de abertura política tornou-se inevitável. Mesmo assim, os militares deixaram o governo através de uma eleição indireta, mesmo que concorressem somente dois civis (Paulo Maluf e Tancredo Neves).
|
""MATEMÁTICA PARA AQUELES QUE GOSTAM DE MATEMÁTICA E QUEREM APRENDER. MATEMÁTICA PURA E APLICADA:-->PROVAS, EXERCÍCIOS, TEXTOS,BIOGRAFIAS"".
Quem sou eu
Total de visualizações de página
sábado, 8 de junho de 2013
AVALIAÇÕES FATAIS.
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário