A destruição pública de Mia Ballard
perguntas novas de pesquisa (performatividade de escrita)A destruição pública de Mia Ballard seguiu uma cadeia bem documentada: suspeita no BookTok, vídeo de três horas, laudo de 78% produzido por instrumento proprietário sobre cópia pirata, reportagem do New York Times, cancelamento pela Hachette, colapso de saúde mental e ação judicial de um milhão de dólares. Em nenhum momento da sequência alguém perguntou como o texto havia sido produzido. Perguntou-se apenas se o instrumento classificava o resultado como IA. A investigação processual foi dispensada porque havia um número.
O debate cultural sobre IA e criação artística tem gravitado, com consistência notável, em torno de uma única resposta para essa lógica: mostrar o processo como prova de humanidade. Pedro Burgos pede que artistas exibam “a bagunça, o esforço, o coração partido”. [Stephen Marche documenta](I wrote a novel using AI. Writers must accept artificial intelligence – but we are as valuable as ever | Stephen Marche | The Guardian) 18 meses de escrita com IA e publica o resultado na New York Times. Joshua Rothman invoca a restrição voluntária como disciplina estética. Molly Crabapple nomeia o extrativismo estrutural sobre o trabalho artístico. Colson Whitehead instrui: write the piece, not the prompt. São posições às vezes incompatíveis, mas convergem num pressuposto comum — a autenticidade deve ser demonstrada ou defendida no nível do produto.
Uma pesquisa em andamento no PPGECCO/UFMT sugere que esse pressuposto está empiricamente mal fundado. Testes estatísticos em corpus controlado de 45 textos com seis níveis declarados de hibridização humano-IA produziram R² < 0,001 e p = 0,998 na relação entre proporção declarada de uso de IA e pontuação dos detectores comerciais. O instrumento que deveria medir autoria não mede proporção de uso; responde à assinatura do modelo — Claude pontua 0,000, ChatGPT pontua 1,000 sob condições idênticas de hibridização. Não é que o detector erre com certa frequência. É que ele mede outra coisa.
O enquadramento por Bruno Latour é preciso aqui: o detector não descobre a categoria “texto de IA” — ele a produz por classificação. A categoria não preexiste ao instrumento. O laudo da Pangram sobre o livro de Ballard foi gerado sobre arquivo pirata, sem cadeia de custódia verificável, com modelo de pesos proprietários. A “precisão de 99,98%” anunciada refere-se a condições de laboratório, não a esse uso específico. O número 78% não descrevia a obra; descrevia um artefato do instrumento aplicado a um objeto deslocado do seu contexto. Que os dois laudos — sobre o arquivo pirata e o legítimo — tenham retornado valores idênticos foi lido como robustez. Do ponto de vista metodológico, demonstra que o modelo é insensível à proveniência: está medindo propriedade estatística do texto, não autoria.
O proof of work — na formulação de Burgos e nas variantes de Marche e Rothman — opera dentro dessa mesma lógica certificatória que pretende contornar. É verificável externamente e pode ser falsificado. Um timelapse de 500 horas de escultura documentada pode omitir sistematicamente os momentos em que o artista aceitou a sugestão da máquina sem examiná-la. O que é exibido é a curadoria do processo, não o processo. Mais revelador: o proof of work não exige que o artista exponha sua dependência cognitiva das ferramentas que usou. A credencial de humanidade é apenas performance; a rendição cognitiva é editável.
Entre as propostas alternativas que a pesquisa desenvolve, via Foucault, chama-se parresía: exposição analítica e vulnerável do próprio processo cognitivo, incluindo as dependências e as rendições. O corpus de 7.353 interações documentadas em JSON — produzido pelo pesquisador ao longo de dois anos — não é timelapse de esforço. É arquivo da negociação cognitiva, incluindo os momentos de rendição que nenhum artista interessado em “provar humanidade” exporia voluntariamente. A distinção que o debate amplamente mapeado não formula: o proof of work autentica o produto via performance; a parrésia expõe o processo incluindo suas falhas. O primeiro pode ser falsificado; o segundo, por definição, documenta inclusive os momentos de falsificação potencial.
O caso Ballard acrescenta à empiria do corpus algo que os 45 textos não podiam mostrar: a escala do dano quando o processo é substituído pela classificação. Um argumento normativo que emergiu da pesquisa — que programas de pós-graduação como o ECCO estariam em posição de inibir o uso de IA fora das tarefas burocráticas — enfrenta uma tensão não resolvida com essa mesma empiria. A dissertação que chega a essa conclusão foi produzida, inteira e documentadamente, com IA como interlocutor cognitivo central. A proibição como resposta ao problema que o corpus demonstra exigiria explicar por que a metodologia da própria pesquisa constitui a exceção. A regulação processual — documentação obrigatória, transparência metodológica verificável, exatamente o que os 7.353 prompts classificados exemplificam — é a única saída normativa que não contradiz os dados. Que a pesquisa ainda não tenha resolvido esse nó é, talvez, o dado mais honesto que ela produz.