Cognitivismo clássico – Processamento da Informação


Ulric Neisser

Em 1967, Ulric Neisser publicou o texto clássico Psicologia Cognitiva. Sua definição é que a “Psicologia Cognitiva se refere a todo processo pelo qual a entrada sensorial é transformado, reduzido, elaborado, armazenado, recuperado e usado”. A cognição começa com a entrada sensorial, que em seguida é alterada ou transformada. Nosso aparato sensório está sintonizado com certos tipos de energia presentes no mundo. Este sensório converte a energia física em energia neural, ou como os psicólogos cognitivistas dizem, a estimulação física é encadeada em eventos neuronais.
A noção de código é uma importante idéia na Psicologia Cognitiva. Um código é um sistema de sinais usado para representar letras ou números na transmissão de mensagens. Nosso sistema nervoso parece fazer o seguinte: a estimulação física é representada pela atividade do sistema nervoso de uma forma que preserva algumas das características do estimulo original. A transformação do estímulo físico produz mais que um código neural, pois que a transformação também resulta na criação de um código cognitivo. Os códigos cognitivos são criados pela atividade de nosso sistema nervoso, isto é, a transformação da energia física que é potencialmente capaz de inscrever-se em nossa consciência tornando-se um acontecimento mental (Becker, 1998).
Para Miller (1993), os psicólogos do processamento da informação investigam tópicos tradicionalmente estudados pelos psicólogos experimentais como a atenção, memória, processamento do texto, linguagem e resolução de problema. Vêem as crianças de várias idades ou níveis cognitivos como estando em diferentes estados. Consideram que qualquer atividade mental leva algum tempo para processar, mas que existem diferenças na velocidade de processamento entre diferentes idades, entre criança normal e atrasada, e entre bons e maus leitores.
Cada nível de desenvolvimento mental se caracteriza por um relacionamento entrada-saída particular, e então conforme se muda a forma de entrada e se observa como muda a saída nas diferentes idades, pode-se descrever a natureza do sistema do processamento da informação em cada estado. Usando a analogia do computador, se tenta seguir as pegadas detalhadas, passo a passo, das mudanças no fluxo da informação no tempo real desde a entrada até a saída. É feita uma análise passo a passo do que a pessoa faz com a informação. A mudança no desenvolvimento se torna aparente em cada fase do processamento, observando-se desde a atenção através da codificação da informação, da recuperação da memória de longo prazo, até a tomada de decisão, e uma ou todas estas mudanças podem ser responsáveis pelas diferenças nas estratégias usadas pelas crianças mais jovens e mais velhas.
Uma série de processos chamados de processos de controle executivos dirigem as atividades em cada etapa do processamento, observando o caminho do que está acontecendo em todas as partes do sistema e assegurando que o sistema inteiro trabalhe em harmonia. Uma das maiores mudanças observadas no desenvolvimento do processamento da informação ocorre nestes processos de controle, através da auto-modificação (Ferreira, 1998b).
A primeira teoria de processamento da Informação, de Miller, apresenta dois conceitos teóricos fundamentais: o primeiro em 1956, de blocos e sua relação com a memória de curto prazo. Cada bloco é uma unidade significante (dígitos, palavras, faces das pessoas etc.). Este conceito tornou-se um elemento básico para todas as teorias subsequentes de memória. Quatro anos após, apresenta o conceito de “TOTE” (test-operate test-exit) e sugere que esta deva substituir a unidade básica do behaviorismo “estímulo – resposta”. A unidade TOTE foi usada para testar se uma meta foi atingida e é repetida até que seja alcançada ou abortada. Foi a base das teorias subsequentes de solução de problemas, como por exemplo a GPS e de sistemas de produção.

A teoria Geral de Solução de Problemas, GPS é uma teoria estruturada na forma de um programa de simulação (Ernest & Newell, 1969; Newell & Simon, 1972) que exerceu um impacto significante na psicologia cognitiva. Também introduziu a descrição de processos de produção como método para modelos cognitivos específicos. A GPS tem estrutura teórica de processamento de informações e tenta explicar todo comportamento como uma função das operações de memória, processos de controle e regras.
GOMS (Card Moran & Newell, 1983) é uma teoria de habilidades cognitivas, baseada em estrutura de processamento de informações admitindo vários níveis ou tipos de memória com processamentos sensitivo, motor e cognitivo, isolados. Segundo o modelo GOMS a estrutura cognitiva tem quatro componentes: meta (Goal), operador (Operator), método (Methods) e regras específicas (Selection rules) e pode ser usado para identificar os efeitos e erros de desempenho na tarefa. Toda atividade cognitiva é interpretada como uma procura da abrangência do problema, premissa fundamental das teorias GPS e Alto Nível (Soar Theory).
A Teoria de Alto Nível é arranjo da cognição humana expressa em forma de sistema de produção. Foi uma teoria construída a partir de esforços anteriores envolvendo Newell (1987) como na GPS (Newell & Simon) e na GOMS (Card, Moran & Newell). O elemento principal da teoria é a idéia de abrangência do problema: todos os atos cognitivos são de alguma forma uma busca da tarefa. Newell menciona que essa teoria sugere uma visão reconstrutiva da memória.
Scandura (1973), desenvolveu a teoria Estrutural da Aprendizagem onde afirmava que o que se aprende são regras “de âmbito, extensão e procedimento”. A solução de problemas pode ser facilitada quando regras mais complexas são usadas gerando novas regras.
Ao contrário das teorias de que freqüentemente assumem mecanismos de controles mais complexos e regras de produção, a teoria Estrutural da Aprendizagem postula um único mecanismo de controle ligado à meta, com suposições mínimas sobre o processador e permitindo regras com estruturas mais complexas.
Esta teoria foi aplicada exaustivamente na matemática e também proporcionou uma interpretação da teoria Piagetiana (Scandura & Scandura, 1980). O ponto principal da teoria é ensino por solução de problemas (Scandura, 1977).
A estrutura da teoria dos Níveis de Processamento da Informação, proposta por Craik & Lockhart (1972), surge como uma alternativa às teorias de memória que as compreendem e tratam-nas de forma fragmentada. De acordo com esta teoria, a informação é processada em vários níveis simultaneamente, dependendo apenas de suas próprias características. Além disso, é um processo inconsciente e automático, a menos que se esteja atento para o nível específico de processamento. Isto sugere que o mecanismo de atenção é mais uma interrupção em processamento do que um processo cognitivo puro. D’Agostino, O’Neill & Paivio (1977) discutiram a sua relação com a teoria da Codificação Dupla.
Schank (1975) foca sua teoria de aprendizagem na estrutura do conhecimento, principalmente no contexto da compreensão da linguagem. Em 1986 usou a teoria como base para modelo dinâmico de memória. Foram desenvolvidos programas de computadores para demonstrar sua teoria. Canela & Cleary em 1995 descrevem a aplicação dessas idéias em software educacional.
A teoria Cognitiva de Anderson (ACT), desenvolvida com colaboradores em 1976, centrada em processos de memória foi construída a partir do HAM, modelo de memória semântica proposto por Anderson & Bower (1973). Sofreu crítica e esboço de aprofundamento da teoria pelo próprio Anderson, respectivamente em 1990 e 1993.
ACT distingue estruturas de memória com níveis de complexidade progressivos que permitem três tipos de aprendizagem: geral – alarga o campo de conhecimento; discriminatório – reduz o conhecimento e por último a aprendizagem centrada nos conteúdos mais usados. Diz ainda que novos conhecimentos são formados por conjunção ou disjunção de conhecimentos já existentes.
A teoria de Codificação Dupla proposta por Paivio (1986) procura dar o mesmo peso para os processos verbais e não verbais. Ele diz que a cognição humana é única e se torna especializada por lidar simultaneamente com o idioma e com objetos não verbais (imagens); e que qualquer teoria representativa deve contemplar essa dupla funcionalidade.
A teoria de Codificação Dupla leva em conta o significado das habilidades espaciais nas teorias de inteligência, como p. ex. Guilford.
A teoria Matemática de Aprendizagem é uma tentativa de descrever e explicar comportamento em termos quantitativos. Vários psicólogos tentaram desenvolver tais teorias (Hull; Estes; Restle & Greeno, 1970). O trabalho de Atkinson (1972), é particularmente interessante porque ele aplica a teoria para o planejamento curricular em cursos de artes. Discute o problema da otimização do ensino, propondo estratégias variadas visando melhorar o desempenho da turma e dos alunos individualmente, criando oportunidades de ensino para cada um, em que relaciona tempo com desempenho.
A Teoria de Exibição de Componentes classifica a aprendizagem por duas dimensões: conteúdo e desempenho. Em 1983 Merrill explicitou as bases cognitivas da teoria, e embora reconhecendo vários tipos de memória, diz que a memória associativa e a algorítmica estão diretamente relacionadas com os componentes de desempenho – lembrar e usar/achar, respectivamente. A memória associativa é uma estrutura de rede hierarquizada e a memória algorítmica consiste em esquemas e regras.
Um aspecto significante da teoria é o controle da aprendizagem pelos aprendizes, que podem selecionar de forma individualizada as estratégias de aprendizagem, em termos de conteúdo e formas de apresentação para o melhor desempenho. O ensino fundamentado nessa teoria proporciona uma acentuada individualização, onde os aprendizes podem adaptar a aprendizagem aos seus próprios estilos de aprendizagem.
Mais recentemente, em 1994, Merrill apresentou uma nova versão da teoria que denominou Teoria de Projeto de Componentes, com uma abrangência ampliada, transferindo o foco para estrutura de curso e procedimentos instrucionais ao invés das dimensões de conteúdo e desempenho. As estratégias de controle do aprendiz foram substituídas por estratégias para preceptores. A nova teoria foi relatada no desenvolvimento de trabalhos em sistemas especialistas e ferramentas de autoria para projetos instrucionais (Li & Merrill, 1991; Merrill, Li, & Jones, 1991).

Você tem algo a dizer ? Quer ampliar o debate ?
Comentários são bem vindos.

Anúncios

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s