cross-posted from: https://feddit.it/post/4365609

Invece di distrarsi dai rischi esistenziali futuri, Sasha Luccioni, una ricercatrice nell’ambito dell’etica delle tecnologie e dell’intelligenza artificiale di Hugging Face, pensa che dobbiamo concentrarci sugli attuali impatti negativi della tecnologia, come l’emissione di carbonio, la violazione dei diritti d’autore e la diffusione di informazioni di notizie false.

  • I grandi modelli di linguaggio come ChatGPT consumano grandi quantità di energia ed emettono grandi quantità di anidride carbonica, spesso non rivelata o misurata dalle aziende tecnologiche

  • La tendenza dell’IA è verso modelli più grandi, con costi ambientali ancora più elevati

  • Artisti e autori hanno difficoltà a dimostrare che il loro lavoro è stato utilizzato per la formazione AI senza consenso

  • I pregiudizi nell’IA possono avere gravi conseguenze, tra cui false accuse e detenzione ingiusta

  • La creazione di strumenti per misurare l’impatto dell’IA può fornire informazioni preziose a aziende, legislatori e utenti per prendere decisioni informate sull’uso e la regolamentazione dell’IA (ad esempio, haveibeentrained.com o StableBiasExplorer)