Trapaceando ou não? – Alunos descobrem como enganar o AI avaliando seus exames

Se você está ficando cansado de ouvir sobre como o coronavírus afetou a vida normal, bem, estamos no mesmo barco. Ainda assim, não há como contornar isso, muitas coisas que considerávamos certas mudaram.

Uma das facetas mais severamente afetadas da vida cotidiana é algo tão simples como ir à escola. Há todo um debate por aí em que não entraremos, mas tudo se resume a uma pergunta – é seguro mandar nossos filhos para a escola?

Em todo o mundo, a resposta tem sido “não”. Como resultado, as escolas tiveram que implementar soluções para salas de aula remotas que variaram de brilhantes a … Menos que brilhantes, para resumir.

Muitas escolas nos EUA e no Reino Unido, por exemplo, obrigam os alunos a fazer os exames online. Para ajudar seus professores a lidar com a classificação dos exames, alguns deles começaram a contar com uma IA.

O problema aqui é que a IA às vezes pode ser meio estúpida. Muitos alunos em ambos os países ficaram irritados e levados às lágrimas porque o algoritmo de classificação do AI está distorcido ou calibrado incorretamente.

Outros, porém, descobriram que os algoritmos estritos da IA ​​são um caminho fácil para melhores notas. Alunos de até 12 anos aprenderam a manipular o sistema, formatando suas respostas para que a IA lhes dê uma pontuação perfeita.

Isso às vezes é mesmo que a resposta seja pura bobagem. Tente aprender isso em sala de aula.

De Zero a Hero

Um desses alunos é Lazare Simmons, do sétimo ano. Segundo sua mãe, Dana, ela encontrou o filho chorando após fazer o exame de história.

O menino tinha obtido uma pontuação de 50 em 100. Para aqueles que não estão familiarizados com o sistema de notas dos EUA, isso não é ótimo. Na verdade, é uma nota de reprovação.

Ele estava tipo, eu vou ter que tirar 100 em todo o resto para compensar isso. Ele estava totalmente abatido ”, disse a Sra. Simmons – uma professora de história – ao The Verge.

Ela tentou consolar Lazare, dizendo a ele que alguns professores são alunos duros no início do semestre, mas geralmente relaxam mais tarde. Mas seu filho disse a ela que o professor não estava corrigindo suas respostas.

Ele havia obtido seus resultados segundos depois de submeter o exame. Não importa que tipo de super professor você seja, nenhum ser humano pode dar notas em uma prova tão rapidamente.

Em vez disso, um algoritmo de IA desenvolvido por uma empresa chamada Edgenuity foi o único que examinou o que Lazare enviou. Simmons pediu ao filho que enviasse mais algumas atribuições, para que ela pudesse ver como o sistema funcionava.

Visto que o Edgenuity dá ao usuário suas respostas corretas predefinidas, Lazare e a Sra. Simmons foram capazes de deduzir que o sistema estava procurando por palavras-chave específicas.

Juntos, os dois descobriram a melhor maneira de enganar a IA. Para cada resposta, Lazare agora escreve apenas duas frases, seguidas por uma lista absurda de palavras-chave que ele presume que o sistema está procurando.

Ele está obtendo uma pontuação perfeita em todas as perguntas. Engenhosidade humana 1, inteligência artificial 0.

Salada de Palavras para o Almoço

Como exemplo de uma resposta perfeita, a Sra. Simmons citou o seguinte prompt: “Qual era a vantagem da localização de Constantinopla para o poder do Império Bizantino?

Então você analisa, ok, quais são as palavras-chave possíveis que estão associadas a isso? Riqueza, caravana, navio, Índia, China, Oriente Médio, ele simplesmente jogou todas essas palavras ”, explicou ela.

E o sistema engoliu anzol, linha e chumbada. O site da Edgenuity explica que o sistema está analisando seriamente apenas as palavras-chave.

Dê o que ele quer e você terá uma pontuação perfeita. Não importa como a resposta é formulada.

Todos nós podemos decidir por nós mesmos se o que os Simmons estão fazendo é imoral. Por um lado, eles estão praticamente trapaceando em um exame da escola; por outro, o sistema em vigor é tão disfuncional que talvez seja justificado.

Lazare, pelo menos, não parece se sentir muito mal com isso.

Eu queria jogar porque achei que era uma maneira fácil de tirar uma boa nota”, disse o menino, encolhendo os ombros para evitar o dilema moral.

‘Funciona sempre’

Lazare não está sozinho em tirar proveito da classificação simplista de IA. Um aluno, que queria permanecer anônimo, disse ao The Verge que eles simplesmente copiaram a pergunta apresentada para o campo de resposta do Edgenuity.

De acordo com eles, todas as palavras-chave que a AI estava procurando estavam bem ali na pergunta. O sistema deu a eles uma pontuação perfeita “quase todas as vezes”.

Austin Paradiso, outro aluno, disse que seu colégio usava a educação educacional e ele também às vezes recorria a métodos desleais. E eles trabalharam todas as vezes.

Eu sempre tentei fazer a resposta pelo menos semicerente porque parecia um pouco barato simplesmente jogar um monte de palavras-chave no campo de entrada”, disse Paradiso.

Mas se eu fosse um pouco mais preguiçoso, poderia facilmente ter escrito uma sequência aleatória de palavras pertinentes ao prompt da pergunta e obtido 100%.

Lute contra o sistema

No Reino Unido, no entanto, os alunos não gostam de notas fáceis. Isso pode ser porque, para muitos, um sistema de classificação de IA falho custou-lhes a vaga na faculdade.

De acordo com a Wired, cerca de 40% dos alunos que fazem os exames de decisão de nível A na faculdade obtiveram notas mais baixas com a IA do que com um professor humano.

O sistema usado no exame é particularmente injusto porque pune os alunos por fatores além do seu controle. O AI procura, entre outras coisas, dados de alunos anteriores da escola em particular ao atribuir notas individuais.

O processo é complexo, mas todo o efeito dominó leva a coisas como o financiamento da escola afetando as notas dos alunos. E não importa o que você pense, isso não deve ser um fator ao atribuir notas.

Os alunos ficaram com tanta raiva que saíram às ruas em protesto. E não é difícil perceber porquê. Perder a faculdade por causa de uma IA que é burra demais para entender as respostas do seu exame não deve ser uma boa sensação.

Uma IA derrubando a humanidade é um tropo comum da ficção científica. Na verdade, parece que essas coisas idiotas deveriam pelo menos aprender a ler antes de chegarem a esse ponto.

Leia também: Artilheiro: um cão pastor australiano que podia ouvir aeronaves inimigas a quilômetros de distância

Traduzido e editado por equipe Isto é Interessante 

Fonte: Oddee