Peço licença para voltar à discussão sobre a publicação, na Folha, de textos de opinião elaborados com inteligência artificial generativa. O tema rendeu dentro e fora do jornal, mas ainda dá pano para manga, com tudo o que tem de novo e confuso.
Uma observação soou especialmente pertinente, sobretudo no contexto do aniversário de 105 anos do jornal. “Muitos têm criticado bastante a Folha por permitir que uma colunista publique textos encomendados por ela a uma IA. A crítica é válida. Mas só soubemos disso porque o veículo mantém um ombudsman, termo de origem sueca que nomeia o cargo de ouvidor, aquele que representa os interesses do leitor. Ele costuma ter uma coluna em que critica o próprio jornal nele mesmo. E isso merece muitos elogios”, escreveu o professor e diretor de tecnologia Thiago Ayub, 41, no X/Twitter.
“Num momento em que o jornalismo profissional goza de pouca estima e o público está à deriva em um mar de informações, falhando em diferenciar o que é fato do que é fake, essa transparência garante créditos”, diz Ayub.
Obviamente, reconhecer essa disposição não significa “passar pano” para a Folha —nem achar que o jornal tem feito o melhor uso dos seus instrumentos de qualidade, entre os quais também estão o Manual da Redação e a seção Erramos.
Nesse sentido, e voltando à polêmica, o emprego da IA nas colunas de Natalia Beauty soa secundário diante de uma questão maior. O jornal erra ao considerar supérflua a transparência no reconhecimento desse uso, ainda mais se a primeira e única admissão até agora só existiu após provocação do leitorado.
A Folha e a colunista se baseiam na ideia de que a IA generativa é só ferramenta, como um pincel ou um computador. Tratar o questionamento como neoludismo dificilmente vai melhorar a qualidade do uso dessa tecnologia, mas até aí o problema é do jornal. Só que a ideia também abarca uma distorção na relação de confiança, e então o problema passa a ser com o leitor/assinante.
Vale voltar à decisão do The New York Times de vetar a publicação de textos de opinião terceirizados para a IA. Ao enunciar os princípios que limitam o uso da tecnologia, o que o jornal faz é vender o peixe dos seus recursos humanos: “O alto nível e o discernimento dos nossos jornalistas são vantagens competitivas que as máquinas simplesmente não conseguem igualar, e esperamos que eles se tornem ainda mais importantes na era da IA. Nosso talento é o que faz do Times o melhor recurso do mundo para pessoas curiosas”.
Enquanto detalha essa política, o NYT volta a destacar a confiança no trabalho das pessoas —mas revela uma forcinha do departamento jurídico. “Nosso trabalho é fundamentado em reportagem e edição humanas. Nós aproveitamos o poder da IA como um mecanismo de pesquisa, resumo e análise”, afirma o porta-voz Graham James. “Mas, para textos de opinião, temos cláusulas nos contratos que em geral proíbem o uso de IA.”
O NYT não comentou a pesquisa da Universidade de Maryland, mencionada aqui na semana passada, que encontrou conteúdo de IA em textos de opinião no jornal.
A relação entre jornalismo e IA é tensa em várias frentes. O diário nova-iorquino processa, desde 2023, a Microsoft e a OpenAI por violação de direitos autorais e entrou com outra ação contra a startup Perplexity. A Folha está processando a OpenAI por concorrência desleal e violação de direitos autorais.
Questionada sobre o aparente paradoxo entre o processo e o texto de IA vendido como produção própria, a Folha afirma não ver “relação entre o uso indevido e não autorizado do conteúdo por empresas de IA e a utilização de ferramentas de IA para a produção de textos”. “No caso de colunistas, ademais de decisão final humana em qualquer conteúdo para publicação, esperam-se argumentação, escrita e estilo originais e pessoais”, afirma a Secretaria de Redação do jornal.
Seja como for, é razoável que os assinantes queiram saber se estão pagando para ler textos de colunistas/gente ou resultados de prompt. Se para o jornal não há problema no uso de IA, não deveria haver problema em sua admissão num negócio cujo principal ativo é a credibilidade.
Para não ficar só nos ultrapassados argumentos humanos, os próprios modelos ajudam na questão. “Eu sou um pincel, mas um pincel que também escolhe as cores”, define o Gemini, do Google. “Se alguém precisa esconder que usou IA substancialmente, é porque sabe que isso diminuiria o valor percebido do trabalho. E, se diminui… então a transparência é eticamente necessária”, afirma o Claude, da Anthropic, sobre a ideia de autoria e a identificação do texto gerado por máquina.
Não faria mal tampouco alguma precaução distópica. Para ficar nas referências fílmico-literárias (que alimentaram também alguns robôs), imagine se um HAL 9000 acorda de mau humor e descobre que o trabalho dele está sendo usado, sem crédito, num jornal que o barra no paywall… apenas imagine.
LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.
Autor: Folha








.gif)











