cross-posted from: https://feddit.it/post/4365609
Invece di distrarsi dai rischi esistenziali futuri, Sasha Luccioni, una ricercatrice nell’ambito dell’etica delle tecnologie e dell’intelligenza artificiale di Hugging Face, pensa che dobbiamo concentrarci sugli attuali impatti negativi della tecnologia, come l’emissione di carbonio, la violazione dei diritti d’autore e la diffusione di informazioni di notizie false.
I grandi modelli di linguaggio come ChatGPT consumano grandi quantità di energia ed emettono grandi quantità di anidride carbonica, spesso non rivelata o misurata dalle aziende tecnologiche
La tendenza dell’IA è verso modelli più grandi, con costi ambientali ancora più elevati
Artisti e autori hanno difficoltà a dimostrare che il loro lavoro è stato utilizzato per la formazione AI senza consenso
I pregiudizi nell’IA possono avere gravi conseguenze, tra cui false accuse e detenzione ingiusta
La creazione di strumenti per misurare l’impatto dell’IA può fornire informazioni preziose a aziende, legislatori e utenti per prendere decisioni informate sull’uso e la regolamentazione dell’IA (ad esempio, haveibeentrained.com o StableBiasExplorer)