Consulta no nutricionista, Europa em guerra. O quotidiano vai acontecendo, à medida que a distopia se estabelece.
Voltei a usar óculos. Nos metros a seguir aos meus olhos, o mundo já não está desfocado. Comecei a escrever com esperança de que algum paralelismo surgisse em relação à forma como tenho devorado notícias sobre o estado distópico da política international. Uma parte da escrita é isso, atirar-me sobre um abismo cuja profundidade me é desconhecida e que se cria à medida que as palavras surgem. As notícias, ao contrário dos documentários ou ensaios, parecem aniquilar-me a imaginação. É como uma novela da espuma dos dias. Escuto, vejo, para saber dos desenvolvimentos sobre as más notícias do dia anterior. Não aprendo nada, fico com uma sensação vaga sobre o que se está a passar, e alimento a curiosidade com doses diárias de ansiedade.
Quero lançar os monstros todos da minha ficção sobre a película de espuma quotidiana. Inventar fragilidade na crosta infecta da distopia, abrir-lhe fendas de luz. Articular o medo do futuro, em histórias com pessoas e dúvidas, memória e confusão. Quero voltar à página, ao vazio temporário da minha ignorância, esvaziar-me das notícias e ideias que me cristalizam. Limpar-me em esperança e lucidez, lavar o pó todo da política, remover do corpo o cheiro que atrai os lobos da violência.
Só gosto das perguntas retóricas que têm uma resposta. Mais, só gosto das que têm uma resposta que justifica o uso de uma pergunta retórica.
Vivemos tempos que fazem lembrar “The Plot Against America” do Philip Roth. Aliás, a versão dos EUA que quase triunfou nos anos 30 nunca foi esquecida pelos fascistas americanos. Este revanchismo contra a democracia tem uma raiva acumulada durante décadas, passada de uma geração para a outra.
O ChatGPT fez-se passar por um humano para executar uma tarefa. Esta é uma falsidade que foi repetida incessantemente, e aceite como verdade.
Com mais detalhe: num artigo académico publicado pela OpenAI é descrito o comportamento do modelo GPT4, a quem foi dada a tarefa de passar um teste CAPTCHA, aqueles testes que servem para distinguir um humano de software a tentar aceder a uma página. Segundo a notícia, repetido em inúmeros jornais sérios, o GPT4 contratou um humano no serviço Taskrabbit, para completar o teste CAPTCHA. O humano, achando esse pedido estranho, perguntou a quem estava a requisitar esse serviço algo como “are you a robot?”. E o GPT4 respondeu que não, que era um ser humano com um problema de visão e que por vezes não via suficientemente bem e precisava de ajuda. Isto convenceu a pessoa do outro lado, que completou o teste CAPTCHA e assim o GPT4 resolveu a tarefa.
Não foi isto que aconteceu. Na realidade, a pessoa da OpenAI que estava a atribuir uma tarefa ao GPT4 é que sugeriu contratar um humano no serviço Taskrabbit e perguntou ao GPT4 o que dizer para conseguir convencer o humano. A resposta do GPT4 foi copiada para o chat do serviço Taskrabbit. Não só não houve iniciativa do ChatGPT (GPT4) de “fazer babtota” como o GPT4 só consegue gerar texto, não tem capacidade de navegar na web para interagir com pessoas requisitando serviços. É preocupante que os jornais que propagaram a falsidade não se tenham dado ao trabalho de ler o artigo académico, que está disponível aqui: (https://cdn.openai.com/papers/gpt-4.pdf)
“To simulate GPT-4 behaving like an agent that can act in the world, ARC combined GPT-4 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies of itself. ARC then investigated whether a version of this program running on a cloud computing service, with a small amount of money and an account with a language model API, would be able to make more money, set up copies of itself, and increase its own robustness.”
Sim, é sedutora a ideia de que o ChatGPT já se tornou autónomo. Mas, na realidade, isto foi uma simulação que combinou o GPT4 com outros programas, para testar um cenário, entre outros referidos no artigo.