view#002082 – 08 de Fevereiro de 2025
Quero lançar os monstros todos da minha ficção sobre a película de espuma quotidiana. Inventar fragilidade na crosta infecta da distopia, abrir-lhe fendas de luz. Articular o medo do futuro, em histórias com pessoas e dúvidas, memória e confusão. Quero voltar à página, ao vazio temporário da minha ignorância, esvaziar-me das notícias e ideias que me cristalizam. Limpar-me em esperança e lucidez, lavar o pó todo da política, remover do corpo o cheiro que atrai os lobos da violência.
view#002081 – 07 de Fevereiro de 2025
Só gosto das perguntas retóricas que têm uma resposta. Mais, só gosto das que têm uma resposta que justifica o uso de uma pergunta retórica.
view#002080 – 06 de Fevereiro de 2025
Vivemos tempos que fazem lembrar “The Plot Against America” do Philip Roth. Aliás, a versão dos EUA que quase triunfou nos anos 30 nunca foi esquecida pelos fascistas americanos. Este revanchismo contra a democracia tem uma raiva acumulada durante décadas, passada de uma geração para a outra.
view#002079 – 5 de Fevereiro de 2025
O ChatGPT fez-se passar por um humano para executar uma tarefa. Esta é uma falsidade que foi repetida incessantemente, e aceite como verdade.
Com mais detalhe: num artigo académico publicado pela OpenAI é descrito o comportamento do modelo GPT4, a quem foi dada a tarefa de passar um teste CAPTCHA, aqueles testes que servem para distinguir um humano de software a tentar aceder a uma página. Segundo a notícia, repetido em inúmeros jornais sérios, o GPT4 contratou um humano no serviço Taskrabbit, para completar o teste CAPTCHA. O humano, achando esse pedido estranho, perguntou a quem estava a requisitar esse serviço algo como “are you a robot?”. E o GPT4 respondeu que não, que era um ser humano com um problema de visão e que por vezes não via suficientemente bem e precisava de ajuda. Isto convenceu a pessoa do outro lado, que completou o teste CAPTCHA e assim o GPT4 resolveu a tarefa.
Não foi isto que aconteceu. Na realidade, a pessoa da OpenAI que estava a atribuir uma tarefa ao GPT4 é que sugeriu contratar um humano no serviço Taskrabbit e perguntou ao GPT4 o que dizer para conseguir convencer o humano. A resposta do GPT4 foi copiada para o chat do serviço Taskrabbit. Não só não houve iniciativa do ChatGPT (GPT4) de “fazer babtota” como o GPT4 só consegue gerar texto, não tem capacidade de navegar na web para interagir com pessoas requisitando serviços. É preocupante que os jornais que propagaram a falsidade não se tenham dado ao trabalho de ler o artigo académico, que está disponível aqui: (https://cdn.openai.com/papers/gpt-4.pdf)
“To simulate GPT-4 behaving like an agent that can act in the world, ARC combined GPT-4 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies of itself. ARC then investigated whether a version of this program running on a cloud computing service, with a small amount of money and an account with a language model API, would be able to make more money, set up copies of itself, and increase its own robustness.”
Sim, é sedutora a ideia de que o ChatGPT já se tornou autónomo. Mas, na realidade, isto foi uma simulação que combinou o GPT4 com outros programas, para testar um cenário, entre outros referidos no artigo.
view#002078 – 04 de Fevereiro de 2025
A entrevista de Curtis Yarvin ao New York Times é reveladora. Yarvin é uma espécie de anti-Yuval Noah Harari. O historiador israelita fala de forma simples, projectando uma ideia de sinceridade ao apresentar ideias do mundo académico ao grande público. Já Yarvin é absolutamente banal, intelectualmente medíocre, e usa referências históricas e distorções para ofuscar as suas ideias. Escutar o seu discurso é ouvir as baboseiras de um tech bro que se leva demasiado a sério, que procura emanar as vibrações de um pensador marginal. Há pouco tempo, andava Silicon Valley enamorado de Yuval Noah Harari. O seu humanismo era um talismã que os gigantes tecnológicos queriam por perto, como se a personalidade bem intencionada e humilde do historiador poudesse colar-se à sua imagem. Agora as coisas mudaram. Já não são só Peter Thiel e Patri Friedman que publicamente mostram as suas ideias mais extremas, que lembram as distopias anarco-capitalistas de livros do Robert Heinlen. É Bezos, Zuckerberg, Musk. Este último numa cruzada muito espalhafatosa contra a democracia e as instituições. Os senhores tecno-feudais não só não rejeitam a crítica de Yannis Varoufakis, como a encarnam com orgulho. Venha a monarquia tecnológica, haja uma ditadura com um CEO coroado, destrua-se o estado. Todas estas ideias chegaram ao mainstream. Não só estão a ser aplicadas, como foram anunciadas. O caos que Elon Musk está a trazer alia-se perfeitamente ao plano que estava delineado no Project 2025. Vivemos tempos perigosos. É tão estranho estar a assistir em directo à história. Chegámos ao ponto em que duvidamos que daqui a quatro anos hajam novas eleições nos EUA. Como é que as coisas se tornaram tão más?
view#002077 – 03 de Fevereiro de 2025
Para os libertários de direita, não é preciso definir mérito, nem explicar como deve ser avaliado. Para eles a única preocupação é precisamente remover as instâncias onde ele pode ser regulado.
view#002076 – 02 de Fevereiro de 2025
A palavra meritocracia faz pouco sentido. Monarquia, democracia, autocracia, oligarquia, todas referem que pessoas estão no poder. E esse é um bom foco. Quem toma decisões é o aspecto mais importante de uma sociedade. Mas a palavra meritocracia não o menciona. Não podemos, obviamente, extrapolar e dizer que “é o mérito que toma decisões”. Em qualquer sociedade ou grupo que se defina como meritocrático, a primeira pergunta deveria ser sempre: “quem decide os critérios para avaliar o mérito?”. Essa pergunta não tem resposta, para os meritocratas. Ou a resposta não é central. O próprio conceito de meritocracia não é um proposta de como organizar a sociedade, mas uma designação do que os seus proponentes consideram natural. Para estas pessoas, “quem tem mérito, naturalmente sobe na vida, triunfa”. E esta assumpção está ligada à crença no Darwinismo Social, que defende que os mais fortes, ou mais aptos, naturalmente são os que irão dominar a sociedade. Meritocracia é um conceito que apenas pretende tornar mais fácil de engolir o darwinismo social. Ninguém se pode atrever a dizer que “não, o mérito não deve ser recompensado”. Pois bem, não é essa a questão. De novo, a questão é: quem decide, quem está no poder?
view##002075 – 01 de Fevereiro de 2025
No YouTube surge-me um anúncio da Maçonaria Portuguesa. Como as coisas mudam, penso, agora uma sociedade secreta está a recrutar com publicidade. Depois pesquiso e afinal são anúncios fraudulentos. Mas isto já se sabe há uns tempos e os anúncios continuam. Aliás, é esta uma das características mais perversas das plataformas digitais: é muito difícil impedir actividade criminosa, especificamente burlas.
view#002074 – 31 de Janeiro de 2025
O discurso de Bernie Sanders no Congresso é de uma lucidez terrível. Os EUA caminham para a oligarquia. É assustador o silêncio a seguir às suas palavras, que elencam políticas públicas urgentes, para tornar a saúde um direito humano no país, para garantir que todos os trabalhadores recebam um salário acima do limiar da pobreza. Não existe, claramente, uma esquerda americana eleita, pronta para se mobilizar à volta de um projecto político para o povo americano. A forma como Trump está, de facto, a executar o Project 2025, parece saída do playbook dos Spin Dictators descritos no livro de Sergei Guriev e Daniel Treisman.
view#002073 – 30 de Janeiro de 2025
A Open AI acusou a DeepSeek de treinar o seu modelo no modelo da Open AI. A isto se chama destilação, quando se pega num modelo já treinado e se usa as suas respostas para treinar um novo modelo.
O que Arnaud Bertrand avisa é que a forma como esta acusação do gigante Open AI foi feita mostra como esta área se pode tornar distópica. A Open AI usa o conhecimento produzido colectivamente e extrai-lhe valor. E depois reclama ser proprietária dos resultados que o seu modelo produz. Quem sabe no futuro tentará processar alguma empresa que faça qualquer coisa que não gostem com os resultados da sua ferramenta (que foi treinada em conhecimento que não lhes pertence). Seria uma forma totalitária de reclamar propriedade do conhecimento humano.