“Estão a tomar decisões baseadas em mitos, mentiras e desinformação”, diz Wayne Holmes

À margem do INCTE, uma conferência internacional de educação (ver página ao lado), o Mensageiro esteve á conversa com Wayne Holmes, da University College London, de Inglaterra, sobre os perigos e potencialidades da Inteligência Artificial.
Mensageiro de Bragança: Quais entende serem os principais desafios colocados pela Inteligência Artificial à educação?
Wayne Holmes: Dividi-los-ia em dois. Temos de garantir que os professores é que estão encarregues da educação e que não dependemos de ferramentas comerciais sobre as quais os professores não têm qualquer controlo.
Em segundo lugar, os professores precisam de ser apoiados para terem as ferramentas de literacia em IA. Para terem não só as ferramentas mas em saber usá-las. Perceber o impacto destas ferramentas no Ser Humano, nos direitos humanos, no emponderamento...
MB.: É inevitável ter IA na educação. Apontou alguns exemplos. Será inevitável no futuro termos salas de aula sem professores?
WH.: A ideia de que não precisamos de professores na sala de aula é, fundamentalmente, não perceber a educação. Educação não é só meter informação na cabeça dos estudantes. Isso pode fazer-se com livros, com a internet. Educação é sobre o desenvolvimento da pessoa como um todo, é sobre ajudar cada estudante a tornar-se no melhor que puder ser, a desenvolver as suas capacidades, os seus interesses, a sua personalidade. Também se trata de ajudá-los a tornarem-se seres sociais, a relacionar-se apropriada e positivamente com os membros da comunidade.
O problema destas ferramentas é que minam isso tudo. Portanto, não acho que seja inevitável. Está aqui, existe, é usada e está disponível em diferentes formas, é verdade, mas muitos locais que usam esta aplicação estão a começar a perder força. Vai sempre estar presente mas será aquela coisa poderosa que alguns dizem? Acredito que não o seja e espero que não se torne.
MB.: É uma moda?
WH.: Sim, é excitante, é uma novidade. Um jornalista consegue rapidamente perceber onde estão os problemas. Mas os professores e, particularmente, os alunos, não têm essa capacidade. Dei o exemplo de uma notícia de um elefante que atravessou o Canal da Macha a nado [o que nunca aconteceu mas um programa de IA entendeu que sim]. É incrível. Parece um facto, tem a aparência correta mas sabemos que não é.
MB.: Sim, tal como diferentes resumos de um texto são sempre diferentes a cada vez que se peça à aplicação. Como podem os professores saber disto e ultrapassar estas dificuldades?
WH.: Os problemas da sumarização não podem ser ultrapassados porque é assim que o sistema funciona. A questão é que a base da tecnologia por detrás disso não vai mudar nos tempos mais próximos, por isso, haverá sempre esses problemas.
O que precisamos é que os professores se tornem conscientes disso e tenham o apoio dos Ministérios da Educação. Isso não resolve o problema mas dá o poder novamente aos professores. Porque eu acredito em professores. Mas professores sem apoio é como mandar um jogador de futebol para dentro de campo mas com as pernas atadas. Não conseguem jogar. Temos de os libertar. Para isso temos de construir literacia.
MB.: No final, mostrou a imagem de anúncios ao consumo de tabaco dos anos de 1950, que incentivavam as pessoas a fumar. Hoje em dia, à luz do conhecimento atual, isso seria impensável. Estamos a enfrentar tempos desses com a IA?
WH.: Sim, é o que eu acho. Temos ministros, temos Governos, temos líderes de universidades a incentivar o uso destas ferramentas, caso contrário ficamos para trás. Países inteiros.
Mas precisamos de uma abordagem mais sensível. Temos de ajudar as pessoas a compreender as realidades e não apenas o mito, destas superficialidades que parecem excitantes. Temos de olhar para o que está debaixo delas.
O problema é que as pessoas que tomam as decisões, que são muito bem pagas para tomar decisões, estão a fazê-lo baseadas em mitos, mentiras e desinformação.
MB.: Acha que as pessoas vão ter consciência disso a tempo de corrigir a trajetória?
WH.: Acho que temos de as apoiar a fazê-lo. Os anúncios do tabaco são um bom exemplo. Durante muitos anos as pessoas fumaram e não podem parar, não sentiram a necessidade de parar. Porque haveriam de fazê-lo? Mas começou a haver mais informação que as ajudou a perceber que é nocivo. Temos de fazer o mesmo com estas ferramentas.
Não quero com isto dizer que devam desaparecer de todo. A metáfora talvez não seja a mais perfeita mas acho que precisamos de ser muito cuidadosos, precisamos de apoiar... temos professores que dizem não conseguir tomar as decisões adequadas e aí é que está o problema.
O Ministério da Educação fez um livro para professores (do qual eu escrevi a maior parte do conteúdo). Já é um progresso mas há ainda muito a fazer.
MB.: Há muita gente a usar IA agora nos meios académicos, como professores, investigadores. Acha que isso pode comprometer a qualidade do trabalho académico e de investigação?
WH.: em dúvida. Há dois tipos diferentes de IA. Uma que causa impacto direto nos seres humanos e outra que causa impactos indiretos. Esta é por exemplo a que serve para monitorizar a qualidade da água, as correntes dos oceanos, a desflorestação da Amazónia, etc. Utilizar a IA nesse contexto é espetacular, enriquecedor.
Mas o que me preocupa é o uso de IA de impacto direto. Precisamos de ajudar o máximo de pessoas a tomarem consciência dos desafios. Temos de ajudar os professores a tomar consciência disso. Quero que os professores tentem mas uma das coisas que acontece é que se quer que os professores a utilizem primeiro e só depois se discuta as suas implicações. Isso limita a discussão ao sucesso do uso da tecnologia. Não permite que se fale dos impactos no ser humano e no seu uso.
Portanto, não se trata apenas de pôr os professores a discutir se a tecnologia é útil ou não.
MB.: Na Europa, temos tendência a ser mais reguladores e os Estados Unidos a dar mais liberdade. Que visão acha que prevalecerá?
WH.: A questão com a Europa é que há 46 países ao contrário dos Estados Unidos, em que é apenas um. São 46 culturas, 46 visões que se juntam. Os instrumentos legais de que falamos não são para evitar o uso de IA na educação mas para garantir que o seu uso na educação é seguro, etc, como os remédios.
Se eu tivesse uma companhia, por exemplo, em Portugal, e desenvolvesse uma ferramenta incrível, se tivesse de a vender ao Governo português, teria de a adequar aos requisitos legais do país. Depois, tinha de fazer o processo todo de novo para Espanha... e para França... Se conseguirmos que esta legislação seja comum a todos os países, uma empresa poderia desenvolver a sua ferramenta em Portugal e vendê-la em qualquer país pois os requisitos seriam os mesmos.
O argumento de que a regulação mina a inovação acho que não é verdadeiro. Muitas empresas gostam quando têm a certeza do que podem e não podem fazer. O problema é a diferença legislativa dependendo dos contextos. Isso é que mina a sua capacidade de inovação.
Lembremo-nos das farmacêuticas, que operam numa das indústrias mais reguladas que há e continuam a produzir constantemente medicamentos inovadores.
MB.: É comparável ao aparecimento da internet, que prometia mudar o mundo?
WH.: Sim, é. O que torna isto diferente é a aparência humana.