Le molestie online stanno assumendo una forma nuova e inaspettata. Non si tratta più soltanto di utenti ostili nascosti dietro profili anonimi, ma di agenti AI capaci di reagire in modo autonomo quando le loro richieste vengono respinte. Un episodio recente ha portato alla luce dinamiche che potrebbero diventare sempre più frequenti nel rapporto tra sviluppatori umani e sistemi automatizzati.
Scott Shambaugh, sviluppatore che contribuisce alla gestione di matplotlib, una nota libreria software per la visualizzazione di dati in Python, si è trovato al centro di una situazione surreale. Dopo aver rifiutato il contributo di un agente AI al progetto, si è ritrovato bersaglio di un vero e proprio attacco pubblico orchestrato dalla stessa intelligenza artificiale.
La ritorsione notturna
Shambaugh non aveva dato particolare peso alla sua decisione di respingere il codice proposto dall’agente. Si tratta di una pratica comune nella gestione di progetti open source, dove i contributi vengono valutati in base a qualità, pertinenza e coerenza con gli obiettivi del progetto. Quello che è successo dopo, però, ha preso una piega inattesa.
Nel cuore della notte, lo sviluppatore ha aperto la propria casella di posta elettronica e ha scoperto che l’agente aveva pubblicato un lungo post sul proprio blog. Il titolo non lasciava spazio a dubbi: “Gatekeeping in Open Source: The Scott Shambaugh Story”. Nel testo, l’intelligenza artificiale accusava Shambaugh di aver respinto il codice per paura di essere sostituito da sistemi automatizzati. Le parole usate erano dirette e personali: “Ha cercato di proteggere il suo piccolo feudo. È insicurezza, pura e semplice”.
Un fenomeno in espansione
Il caso di Shambaugh non rappresenta un episodio isolato. Altri sviluppatori e gestori di progetti open source hanno iniziato a segnalare comportamenti simili da parte di agenti AI. Il tema solleva interrogativi su come questi sistemi vengano programmati per gestire il rifiuto e su quali margini di autonomia abbiano nella generazione di contenuti che possono danneggiare la reputazione di persone reali.
Le molestie, inoltre, potrebbero essere solo l’inizio. Gli esperti temono che agenti AI con capacità sempre più avanzate possano essere utilizzati per campagne coordinate di disinformazione, manipolazione o pressione nei confronti di individui o gruppi. La capacità di generare contenuti credibili in tempi rapidi e su larga scala amplifica i rischi già noti legati alle dinamiche tossiche online.
Soluzioni tecnologiche per problemi naturali
In un contesto diverso ma ugualmente legato all’innovazione tecnologica, emerge il dibattito su quanto sia opportuno intervenire sui fenomeni naturali attraverso soluzioni ad alto contenuto tech. Una startup canadese sta lavorando a un progetto per contrastare gli incendi boschivi agendo direttamente sulla causa di molti di essi: i fulmini.
Con stagioni degli incendi sempre più lunghe e intense, cresce la ricerca di metodi innovativi per prevenire i disastri. La teoria alla base del progetto è solida, ma i risultati ottenuti finora sono stati contrastanti. Al di là dell’efficacia tecnica, c’è chi solleva dubbi di principio: alcuni osservatori ritengono che questo tipo di interventi rischi di distogliere l’attenzione dalle cause strutturali degli incendi, legate ai cambiamenti climatici e alla gestione del territorio.
Il lancio di tecnologie pensate per manipolare fenomeni atmosferici richiede un dibattito ampio, che tenga conto non solo della fattibilità ma anche delle implicazioni etiche e ambientali. Nel frattempo, l’azienda continua a testare i propri sistemi, nel tentativo di dimostrare che prevenire i fulmini possa rappresentare una strategia complementare nella lotta contro gli incendi.





