PicRights: Pagamenti Ingiusti per Violazioni del Copyright?

Nel labirinto del web, dove le immagini si diffondono in un click, la tutela dei diritti d’autore diventa una questione spinosa. Tra leggi e regolamenti, alcuni soggetti sembrano interpretare il ruolo di “paladini del diritto” in modo un po’ troppo zelante. PicRights è un esempio lampante, inviando migliaia di richieste di pagamento, soprattutto a piccole imprese e organizzazioni.

Immagina lo scenario: hai scaricato la foto del vicino Autogrill per il tuo sito web, e improvvisamente, arriva una lettera da PicRights che sostiene la violazione del copyright. Affermano di rappresentare agenzie fotografiche internazionali, ma qualcosa non quadra. Perché la foto dell’Autogrill dovrebbe essere un’opera d’arte di colossi americani dell’informazione?

La parte inquietante è che non ti chiedono di rimuovere l’immagine, ma vogliono denaro per risolvere la “fastidiosa controversia”.

Chi è PicRights?

PicRights Europe GmbH, con sede in Svizzera, offre strumenti online per monitorare e monetizzare l’uso di immagini protette da copyright dei propri clienti. Hanno accordi con aziende come Associated Press, Agence France, Reuters e altre. PicRights non è uno studio legale, ma sembra legata allo studio legale americano Higbee & Associates, noto per le sue aggressive strategie di “copyright trolling”. Le loro lettere spesso includono foto libere da siti web gratuiti, spaventando le persone con richieste di pagamento esorbitanti e poche prove a sostegno.

Con lo stesso metodo, PicRights invia richieste di risarcimento in massa, proponendo transazioni da poche centinaia a migliaia di euro. Per l’Italia, le richieste arrivano da Picrights srl Italy a Bergamo, che gestisce email, lettere cartacee e transazioni.

Servizi di Agenzie “Legal Tech”

Molte organizzazioni come Photoclaim, PicRights, Copytrack e Ryde offrono servizi di tracciamento foto, riscossione compensi e danni a livello globale. Fin qui nulla di male, se non fosse per le loro tattiche discutibili. Inviano migliaia di email di avviso di violazione del copyright a chiunque abbia un’immagine che, secondo loro, viola i diritti d’autore.

La Tecnica di PicRights: Copyright Trolling

I “Copyright Troll” sfruttano richieste di risarcimento danni per lucrare. PicRights afferma di avere accordi con diverse aziende per proteggere i diritti d’autore, utilizzando programmi automatici per scansionare il web e individuare immagini protette. I loro robot mirano a siti aziendali con email e recapiti PEC, inviando poi email (seguite da lettere cartacee) che sostengono la violazione del copyright di una foto di proprietà di un loro cliente. Richiedono la dimostrazione di una licenza o il pagamento di un indennizzo transattivo.

Le vittime, spesso ignare di questioni legali e senza licenze, cedono alle richieste per timore di conseguenze. Con questo sistema, PicRights Italia ha incassato oltre 230.000 euro nel 2022.

L’intervento dell’Antitrust

L’AGCM (Autorità Garante della Concorrenza e del Mercato) ha sanzionato Photoclaim per pratiche commerciali scorrette. L’azienda inviava email aggressive con richieste di risarcimento per violazioni del copyright, spingendo i destinatari ad accettare transazioni onerose. L’Antitrust ha rilevato che le richieste, prive di prove e formulate in modo intimidatorio, inducevano i destinatari a pagare per timore di spese legali in una giurisdizione straniera.

Protezione Legale delle Immagini: Normativa sul Diritto d’Autore

La tutela del diritto d’autore è fondamentale per le opere creative. Il rispetto delle leggi sul copyright è essenziale per la gestione delle immagini online. Le foto possono godere di tutela completa, ma è importante distinguere tra foto “d’autore” e “semplici”. Le prime hanno una protezione più ampia, mentre le seconde concedono all’autore solo il diritto di riproduzione e diffusione se rientrano nella categoria delle foto “protette”.

Le foto rivendicate da PicRights spesso non hanno queste caratteristiche. Sono immagini comuni prive di carattere creativo e generalità dell’autore.

Ecosia lancia il browser più green del pianeta: naviga e salva il mondo!

Cerchi un modo per navigare sul web in modo più sostenibile? Allora dovresti assolutamente provare il nuovo browser di Ecosia! Presentato in occasione della Giornata della Terra, Ecosia si propone come il browser più ecologico del pianeta, combinando la navigazione web con azioni concrete a favore dell’ambiente.

Come funziona?

  • Navigazione web alimentata da energia solare: Ecosia investirà il 100% dei suoi profitti per generare energia solare sufficiente ad alimentare la tua navigazione web. In pratica, ogni giorno che utilizzi Ecosia, un pannello solare produrrà energia pulita per te!
  • Ricerca con un impatto positivo: Proprio come il motore di ricerca Ecosia, anche il browser ti permette di piantare alberi con le tue ricerche. Più utilizzi il browser, più alberi vengono piantati!
  • Funzionalità avanzate: Ecosia offre un caricamento delle pagine fino a tre volte più veloce rispetto ad altri browser, un risparmio della batteria e un’interfaccia personalizzabile con immagini ispirate ai progetti di riforestazione di Ecosia.
  • Chat AI con modalità Green: Chatta con l’intelligenza artificiale di Ecosia e ottieni consigli su come ridurre le tue emissioni di CO2 e risparmiare energia.

Oltre al browser per Windows, Ecosia offre anche un motore di ricerca e un’estensione per Chrome che ti permettono di navigare in modo più sostenibile anche con il tuo browser preferito.

Scarica Ecosia oggi stesso e inizia a fare la differenza per il pianeta!

#Ecosia #BrowserGreen #NavigaInModoSostenibile #SalviamoIlPianeta #GiornataDellaTerra #203MilioniDiAlberi

Fibra VS ADSL: l’eterno duello delle reti Internet

Nell’epoca digitale in cui viviamo, avere accesso a una connessione Internet affidabile è diventato essenziale per molteplici aspetti della nostra vita quotidiana. Due tecnologie si contendono il mercato: l’ADSL e la fibra ottica. Entrambe offrono connessioni ad alta velocità, ma presentano differenze significative che è importante considerare al momento di scegliere la connessione più adatta alle nostre esigenze.

L’ADSL sfrutta i cavi telefonici esistenti per offrire connessioni Internet ad alta velocità, mentre la fibra ottica utilizza cavi in fibra ottica per trasferire dati a velocità incredibilmente elevate. La fibra ottica è nota per la sua velocità di trasferimento dati ultra rapida e per la sua affidabilità, rendendola sempre più popolare tra coloro che cercano prestazioni di rete di alto livello.

L’ADSL è ampiamente disponibile, anche in aree remote, ed è spesso più economica rispetto alla fibra ottica. Tuttavia, ha una velocità di trasferimento dati limitata e la sua affidabilità può variare in base alla qualità dell’infrastruttura locale. D’altra parte, la fibra ottica offre velocità di trasferimento dati superiori e una connessione estremamente affidabile, anche se potrebbe non essere ancora disponibile ovunque e tende ad essere più costosa rispetto all’ADSL.

La scelta tra ADSL e fibra ottica dipenderà dalle nostre esigenze, dalla nostra ubicazione e dal nostro budget. Se la fibra ottica è disponibile nella nostra zona e possiamo permetterci un piano più costoso, potrebbe essere la scelta migliore per ottenere prestazioni di rete superiori. Al contrario, se cerchiamo una connessione affidabile a un prezzo accessibile e la fibra ottica non è ancora disponibile, l’ADSL potrebbe essere la soluzione più adatta.

In conclusione, sia l’ADSL che la fibra ottica offrono vantaggi unici e possono essere valide opzioni per connettersi a Internet. Analizziamo attentamente le nostre esigenze e le opzioni disponibili nella nostra zona prima di prendere una decisione informata sulla connessione Wi-Fi che meglio si adatta al nostro stile di vita e alle nostre attività online. Se hai bisogno di una connessione Internet affidabile, prendi in considerazione l’uso di un comparatore di tariffe per trovare l’offerta migliore per le tue esigenze.

Fonte: offerta-internet.it/meglio-fibra-adsl.

L’impatto dei Social nella società moderna. Pro e contro della più grande rivoluzione della storia

L’ingresso nel mainstream di Internet ha cambiato la società in maniera notevole. L’impatto più forte lo hanno dato sicuramente i Social Network, unendo in un’unica piattaforma profili personali e professionali, gruppi di discussione, messaggistica istantanea e intrattenimento. Ma tutti questi cambiamenti sono davvero così positivi? O celano qualcosa per cui bisogna prestare particolare attenzione? Cerchiamo di capirlo insieme.

Web 1.0: La Nascita del Web Statico

Negli anni ’90, il Web 1.0 segnò l’inizio della presenza online. I siti web erano statici, fornendo informazioni di base senza molte interazioni utente. La navigazione era limitata e la condivisione di contenuti era spesso unidirezionale. E molto spesso, data la difficoltà nel caricare ogni volta le pagine online, i siti non erano aggiornati regolarmente. Tuttavia c’erano le mailing list, ovvero gruppi di discussione via mail in cui i vari utenti si mettevano in contatto e parlavano dei propri argomenti preferiti. In ultimo, arrivò mIRC. Un sistema di chat basato sul protocollo IRC (Internet Relay Chat) in cui utenti da tutto il mondo potevano creare stanze di chat e parlare al loro interno.

Web 2.0: L’interattività e l’avvento dei Social

Con l’avvento del nuovo millennio, il Web 2.0 ha portato un cambiamento epocale. I siti non erano più semplici vetrine, ma piattaforme interattive. Si è cominciato con i Blog, in cui ognuno era libero di scrivere i propri pensieri e pubblicarli online e i Forum, dove persone legate dagli stessi interessi aprivano thread di discussione e si scambiavano opinioni (un’evoluzione delle mailing list e di mIRC). Contemporaneamente, alcuni portali offrivano software di messaggistica istantanea, come MSN, Skype o ICQ. Dai portali dei forum, le persone si scambiavano il proprio contatto e chattavano singolarmente. Infine, è stato il momento dei Social Network, che univano tutto ciò di cui sopra in un’unica piattaforma.

Mobile Revolution: Web ovunque, sempre

Con la proliferazione degli smartphone, il web è diventato mobile. La navigazione da dispositivi mobili è diventata la norma, spingendo gli sviluppatori a creare siti web e app che offrissero un’esperienza ottimale su schermi più piccoli. Qui le persone hanno cominciato a sentire il bisogno di stare connessi h24. E sempre qui, anche il modo di informarsi ha cominciato a cambiare. Avendo la possibilità di consultare i Blog di informazione e i gruppi di discussione sui Social in qualsiasi momento della giornata, non si sente più il bisogno, ad esempio, di comprare il giornale. La velocità con la quale ci si informa ora è talmente elevata che nel momento in cui un quotidiano esce in edicola, le notizie sono già vecchie.

Web 3.0: L’Intelligenza Artificiale

La terza fase del web ha portato l’evoluzione più straordinaria di sempre: l’ IA. Algoritmi di Intelligenza Artificiale sempre più capaci di auto-apprendere e in grado di comunicare con noi con un linguaggio naturale. E recentemente anche video e foto generati da IA. video e foto in grado di riprodurre la realtà con una precisione al limite del fotorealismo.

SEO: L’Importanza di Essere Rilevanti

Con ogni fase, l’ottimizzazione per i motori di ricerca (SEO) è diventata essenziale. Dal Web 1.0, dove le keyword erano la chiave, all’era attuale, dove la qualità del contenuto, la velocità del sito e l’esperienza utente sono fondamentali, l’SEO ha seguito il passo delle trasformazioni digitali.

Pro e Contro del Web di oggi

Quindi, ricapitolando, oggi possiamo informarci alla velocità della luce tramite siti di informazione aggiornati h24, possiamo condividere i nostri pensieri e le nostre opinioni sui Social e abbiamo la possibilità di interrogare le IA per avere informazioni su tutto. In più, possiamo generare immagini e video solo descrivendo quello che vogliamo vedere. A cosa porta tutto questo? Analizziamone i pro e i contro:

Web 3.0: Pro

Tra i pro del Web di oggi c’è sicuramente la facilità nel reperire le informazioni e la possibilità di condividere tutto nei gruppi di discussione. Immaginate un gruppo Telegram o WhatsApp i cui partecipanti sono per la maggior parte ricercatori, che condividono i risultati delle proprie ricerche con altri colleghi da ogni parte del mondo e confrontano i vari risultati. Con lo scambio di informazioni ognuno può implementare la propria ricerca e inserire nuovi dati, arrivando a conclusioni sempre più dettagliate e precise. Ogni ricercatore poi, può pubblicare la sua ricerca sul proprio blog universitario, o su siti specializzati (come Nature) e condividere i risultati con un pubblico ancora più ampio. In questo modo, il progresso viaggia più velocemente.

Web 3.0: Contro

Il contro del Web di oggi è in pratica lo stesso motivo che lo rende un Pro. Ovvero la velocità delle informazioni e la possibilità di condividere le proprie opinioni. Fino a qualche anno fa, c’erano determinate categorie di persone, talvolta pericolose, che non si azzardavano a condividere le proprie opinioni neanche al bar. Sto parlando di terrapiattisti, no-vax, neonazisti, razzisti e estremisti vari. Ma mentre i terrapiattisti non recano danno a nessuno, gli altri purtroppo sì. Ed ecco che nascono i gruppi contro la medicina tradizionale, che incoraggiano chi ha malattie gravi a curarsi con una spremuta d’arancia o i gruppi estremisti che fomentano odio e istigano alla violenza. Queste persone hanno scoperto che in giro per il mondo esiste altra gente come loro e ora è più facile organizzarsi. Il modo in cui reperiscono le informazioni è lo stesso di qualsiasi altra persona, ma il problema sono le fonti. Molto spesso queste persone aprono blog complottisti e iniziano a diffondere informazioni false. E chi è nella cerchia le prende per buone e accusa gli altri di essere disinformati. E oltre questo ciclo di ignoranza, grazie a certi meccanismi si sviluppano sempre più odio, intolleranza, violenza e cyberbullismo.

L’importanza strategica del SEO

Una grossa mano ai siti di informazione può darla il SEO. Quando un sito è ottimizzato, appare in alto nei motori di ricerca. Il problema è che una persona disinformata e disinformatrice può comunque aprirsi un blog e scrivere quello che vuole in chiave SEO. Se poi usa titoli click-bait e riesce ad attirare proseliti, il suo blog apparirà sempre in testa alle ricerche, a discapito di chi le informazioni le reperisce da fonti ufficiali certificate. E quindi il problema si ripresente.

Quindi?

Quindi? Come possiamo fare per aggirare la disinformazione online? Patentino per il web? Censura? Limitazione alla pubblicazione dei contenuti per determinati utenti recidivi?La disinformazione online è un fenomeno sempre più diffuso e pericoloso, che mina la credibilità delle fonti informative, la fiducia nelle istituzioni e la convivenza civile. Come possiamo contrastarla efficacemente, senza limitare la libertà di espressione e il diritto all’informazione?Una possibile soluzione è quella di promuovere una maggiore consapevolezza e responsabilità da parte degli utenti dei social network, che sono spesso i principali veicoli di notizie false, manipolate o tendenziose. Per farlo, occorre innanzitutto educare le persone a verificare le informazioni che ricevono e condividono, a confrontare le fonti, a riconoscere i segnali di qualità e affidabilità, a evitare di cadere in trappole emotive o cognitive.Inoltre, occorre incentivare la creazione e la diffusione di contenuti informativi di qualità, che siano basati su fatti verificabili, che rispettino i principi deontologici del giornalismo, che offrano una pluralità di punti di vista e che siano trasparenti sulle proprie fonti e metodologie. Questo richiede un impegno da parte dei produttori di informazione, ma anche un sostegno da parte delle piattaforme digitali, che devono garantire una maggiore visibilità e accessibilità a questi contenuti, oltre che una maggiore protezione da attacchi informatici o intimidazioni.Infine, occorre rafforzare il ruolo della società civile, delle organizzazioni non governative, delle istituzioni educative e culturali, che possono svolgere un’azione di sensibilizzazione, monitoraggio, contrasto e prevenzione della disinformazione online. Queste realtà possono creare reti di collaborazione, offrire servizi di verifica e fact-checking, organizzare campagne di informazione e formazione, coinvolgere i cittadini in iniziative di partecipazione e dialogo.

Scraping: cos’è e come usarlo per migliorare il SEO

Lo scraping è una tecnica che permette di estrarre dati da siti web in modo automatico. Questa tecnica può essere utilizzata per una varietà di scopi, tra cui il miglioramento del SEO.

Come funziona lo scraping

Lo scraping utilizza un software, chiamato scraper, per analizzare il codice HTML di un sito web. Il software è in grado di identificare i dati che si desidera estrarre, come ad esempio i titoli, i testi, le immagini o i prezzi. Una volta identificati i dati, il software li copia e li salva in un file.

Come utilizzare lo scraping per migliorare il SEO

Lo scraping può essere utilizzato per migliorare il SEO in diversi modi. Ad esempio, può essere utilizzato per:

  • Raccogliere dati per l’analisi dei backlink

I backlink sono un importante fattore di ranking per i motori di ricerca. Lo scraping può essere utilizzato per raccogliere dati sui backlink di un sito web, come ad esempio la qualità dei siti che linkano, la posizione dei link e il numero di link. Questi dati possono essere utilizzati per identificare opportunità di miglioramento del SEO.

  • Generare contenuti

Lo scraping può essere utilizzato per generare contenuti per un sito web, come ad esempio articoli di blog, notizie o liste di prodotti. I contenuti generati da scraping possono essere utilizzati per migliorare la visibilità del sito web nei risultati di ricerca.

  • Eseguire ricerche di mercato

Lo scraping può essere utilizzato per eseguire ricerche di mercato, come ad esempio per identificare i prodotti o i servizi più popolari o per determinare il prezzo di mercato di un prodotto o servizio. Queste informazioni possono essere utilizzate per migliorare le strategie di marketing e vendite.

Considerazioni etiche e legali

Lo scraping può essere utilizzato per scopi etici o non etici. È importante utilizzare lo scraping in modo responsabile e nel rispetto della legge.

In particolare, è importante rispettare i termini di servizio dei siti web da cui si estraggono i dati. Molti siti web vietano lo scraping, quindi è importante verificare prima di utilizzare questa tecnica.

Conclusione

Lo scraping è una tecnica potente che può essere utilizzata per migliorare il SEO in diversi modi. Tuttavia, è importante utilizzare lo scraping in modo responsabile e nel rispetto della legge.

Nicolas Cage: il meme vivente

Nicolas Cage è un attore che non si può certo definire monotono. Con un Oscar all’attivo per la sua indimenticabile interpretazione in Via da Las Vegas e una versatilità straordinaria che gli permette di spaziare tra ruoli di ogni genere, Cage è diventato un vero punto di riferimento nel mondo del cinema.Ma non è solo per le sue indiscusse capacità recitative che Cage è famoso, bensì anche per essere diventato un’autentica icona dei meme. Non c’è dubbio che l’attore abbia assunto un ruolo fondamentale nella cultura popolare, grazie alle sue posture stravaganti e alle espressioni facciali che hanno fatto il giro del web.

Recentemente, in un’intervista al The Guardian, Cage ha parlato del suo rapporto con i meme:

“Ho iniziato a recitare perché ero commosso dalle performance cinematografiche più che da qualsiasi altra forma d’arte. Non sono entrato nel cinema per diventare un meme. È una cosa nuova. Ci ho fatto amicizia, ma mi ci sono dovuto adattare. Pensavo che forse avrebbero invogliato qualcuno a tornare a guardare i miei film. Ma non ho alcun controllo su di essi. La stessa cosa accade a Paul in Dream Scenario: non ha alcun controllo su quel fenomeno inspiegabile”.

In Dream Scenario, il nuovo film in uscita, Cage interpreta Paul, un uomo che si ritrova improvvisamente a essere protagonista dei sogni di milioni di persone. Questa trama sembra essere una sorta di riflesso del fenomeno dei meme che ruotano attorno all’attore.

Cage è quindi consapevole del suo nuovo status di fenomeno dei meme, un’etichetta che ha acquisito sempre più forza nel corso del tempo, ma che è completamente fuori dal suo controllo. Cage è da sempre noto per la sua talentuosità, ma anche per la sua eccentricità. Non ha paura di sperimentare e di mettersi in gioco, anche a rischio di essere preso in giro. È proprio questa audacia che lo rende un attore unico nel suo genere e che continua ad affascinare il pubblico. I meme possono essere una forma di satira, ma non dimentichiamo che possono anche rappresentare un omaggio all’artista. Nel caso di Cage, i meme sono un modo per celebrare la sua carriera e la sua incredibile capacità di reinventarsi costantemente.

Ecco alcuni dei meme più famosi dedicati a Nicolas Cage:

Il meme “You don’t say”, in cui Cage è immortalato con un’espressione incredula.

 

Il meme “Nicolas Cage in a car”, in cui Cage appare in una varietà di pose all’interno di un’automobile.

Questi meme hanno reso Cage un’icona del web, e hanno contribuito a consolidare il suo status di attore cult.

L’A.I. sta distruggendo il vecchio Web!

Il web sta sempre morendo, naturalmente; è morto per anni, ucciso da applicazioni che deviano il traffico dai siti web o da algoritmi che premiano i tempi di attenzione presumibilmente più brevi. Ma nel 2023 sta morendo di nuovo e, come suggerisce la litania di cui sopra, c’è un nuovo catalizzatore in gioco: L’INTELLIGENZA ARTIFICIALE.

L’Intelligenza Artificiale sta superando la capacità di scala di Internet

Il problema, a grandi linee, è questo. Anni fa, il web era un luogo in cui gli individui creavano cose. Si creavano homepage, forum e mailing list e si facevano un po’ di soldi. Poi le aziende hanno deciso che potevano fare le cose meglio. Hanno creato piattaforme eleganti e ricche di funzionalità e hanno spalancato le porte a chiunque volesse unirsi a loro. Ci hanno messo davanti delle scatole, che noi abbiamo riempito di testo e immagini, e la gente è venuta a vedere il contenuto di quelle scatole. Le aziende hanno inseguito la scala, perché una volta che un numero sufficiente di persone si riunisce in un luogo, di solito c’è un modo per fare soldi con loro. Ma l’intelligenza artificiale cambia questi presupposti.

Se si dispone di denaro e di calcolo, i sistemi di IA, in particolare i modelli generativi attualmente in voga, sono in grado di scalare senza sforzo. Producono testo e immagini in abbondanza e presto anche musica e video. La loro produzione può potenzialmente superare o competere con le piattaforme a cui ci affidiamo per le notizie, le informazioni e l’intrattenimento. Ma la qualità di questi sistemi è spesso scarsa e sono costruiti in un modo che è parassitario per il web di oggi. Questi modelli sono addestrati su strati di dati creati durante l’ultima era del web, che ricreano in modo imperfetto. Le aziende raschiano le informazioni dal web aperto e le raffinano in contenuti generati dalle macchine, poco costosi da generare ma meno affidabili. Questo prodotto compete poi per l’attenzione con le piattaforme e le persone che le hanno precedute. Siti e utenti stanno facendo i conti con questi cambiamenti, cercando di decidere come adattarsi e se possono farlo.

Google sta ristrutturando la ricerca anteponendo le risposte generate dall’intelligenza artificiale alle fonti di dati.

Negli ultimi mesi, discussioni ed esperimenti in alcune delle destinazioni più popolari e utili del web – siti come Reddit, Wikipedia, Stack Overflow e lo stesso Google – hanno rivelato la tensione creata dalla comparsa dei sistemi di intelligenza artificiale.
I moderatori di Reddit stanno organizzando un blackout dopo che l’azienda ha dichiarato che aumenterà drasticamente le tariffe per l’accesso alle sue API; i dirigenti dell’azienda hanno dichiarato che i cambiamenti sono (in parte) una risposta alle aziende di IA che scrapano i suoi dati. “Il corpus di dati di Reddit è davvero prezioso”, ha dichiarato il fondatore e CEO di Reddit Steve Huffman al New York Times. “Ma non abbiamo bisogno di dare tutto questo valore ad alcune delle più grandi aziende del mondo gratuitamente”. Questo non è l’unico fattore – Reddit sta cercando di spremere più entrate dalla piattaforma prima di una prevista IPO nel corso dell’anno – ma mostra come questo scraping sia sia una minaccia che un’opportunità per il web attuale, qualcosa che fa ripensare alle aziende l’apertura delle loro piattaforme.

Wikipedia ha una certa familiarità con lo scraping di questo tipo di informazioni. Le informazioni dell’azienda sono state a lungo riutilizzate da Google per fornire “pannelli di conoscenza” e negli ultimi anni il gigante della ricerca ha iniziato a pagare per queste informazioni. Ma i moderatori di Wikipedia stanno discutendo su come utilizzare i nuovi modelli linguistici dell’intelligenza artificiale per scrivere articoli per il sito stesso. Sono consapevoli dei problemi associati a questi sistemi, che creano fatti e fonti con una fluidità fuorviante, ma sanno che offrono chiari vantaggi in termini di velocità e portata. “Il rischio per Wikipedia è che la gente possa abbassare la qualità inserendo cose che non ha controllato”, ha dichiarato di recente a Motherboard Amy Bruckman, docente di comunità online e autrice di Should You Believe Wikipedia? “Non credo ci sia nulla di male nell’usarla come prima bozza, ma ogni punto deve essere verificato”.

“Il problema principale è che le risposte che ChatGPT produce hanno un’alta percentuale di errori, ma in genere sembrano buone”.
Stack Overflow offre un caso simile, ma forse più estremo. Come Reddit, anche i suoi mod sono in sciopero e, come i redattori di Wikipedia, sono preoccupati per la qualità dei contenuti generati dalle macchine. Quando ChatGPT è stato lanciato l’anno scorso, Stack Overflow è stata la prima grande piattaforma a vietarne la produzione. Come scrissero i moderatori all’epoca: “Il problema principale è che le risposte che ChatGPT produce hanno un’alta percentuale di errori, ma in genere sembrano buone e le risposte sono molto facili da produrre”. Ci vuole troppo tempo per classificare i risultati, quindi i moderatori hanno deciso di vietarlo del tutto.

La direzione del sito, però, aveva altri piani. Da allora l’azienda ha sostanzialmente invertito il divieto, aumentando l’onere delle prove necessarie per impedire agli utenti di pubblicare contenuti di intelligenza artificiale, e ha annunciato di voler invece sfruttare questa tecnologia. Come Reddit, Stack Overflow ha intenzione di far pagare le aziende che fanno scraping dei suoi dati e di costruire i propri strumenti di IA, presumibilmente per competere con loro. La lotta con i moderatori riguarda gli standard del sito e chi deve farli rispettare. I moderatori sostengono che non ci si può fidare della produzione di IA, ma i dirigenti dicono che vale la pena rischiare.

Tutte queste difficoltà, tuttavia, impallidiscono di fronte ai cambiamenti in atto a Google. Google Search è alla base dell’economia del web moderno, distribuendo attenzione e ricavi a gran parte di Internet. Google è stato spronato ad agire dalla popolarità di Bing AI e ChatGPT come motori di ricerca alternativi, e sta sperimentando la sostituzione dei tradizionali 10 link blu con riassunti generati dall’AI. Ma se l’azienda procedesse con questo piano, i cambiamenti sarebbero epocali.

Un articolo di Avram Piltch, caporedattore del sito tecnologico Tom’s Hardware, sulla beta della ricerca AI di Google mette in luce alcuni problemi. Piltch afferma che il nuovo sistema di Google è essenzialmente un “motore di plagio”. I suoi riassunti generati dall’intelligenza artificiale spesso copiano parola per parola il testo dei siti web, ma posizionano questo contenuto sopra i link della fonte, privandoli del traffico. Si tratta di un cambiamento che Google sta spingendo da tempo, ma se si osservano le schermate del pezzo di Piltch si può notare come l’equilibrio si sia spostato decisamente a favore dei contenuti estratti. Se questo nuovo modello di ricerca diventasse la norma, potrebbe danneggiare l’intero web, scrive Piltch. I siti a corto di entrate verrebbero probabilmente messi fuori mercato e Google stesso rimarrebbe a corto di contenuti generati dall’uomo da reimpacchettare.

Anche in questo caso, è la dinamica dell’IA – la produzione di contenuti a basso costo basati sul lavoro altrui – a sostenere questo cambiamento e, se Google andasse avanti con la sua attuale esperienza di ricerca IA, gli effetti sarebbero difficili da prevedere. Potenzialmente, danneggerebbe intere fasce del web che la maggior parte di noi trova utili, dalle recensioni di prodotti ai blog di ricette, alle homepage di hobbisti, alle notizie e ai wiki. I siti potrebbero proteggersi bloccando l’ingresso e facendo pagare l’accesso, ma questo sarebbe anche un enorme riordino dell’economia del web. Alla fine, Google potrebbe uccidere l’ecosistema che ha creato il suo valore, o cambiarlo in modo così irrevocabile da minacciare la sua stessa esistenza.

Ma cosa succede se lasciamo che sia l’intelligenza artificiale a prendere il timone e iniziamo a fornire informazioni alle masse? Che differenza fa?
Beh, le prove finora raccolte suggeriscono che la qualità del web in generale peggiorerà. Come osserva Piltch nella sua recensione, per quanto l’IA possa vantare la capacità di ricombinare il testo, sono le persone a creare i dati sottostanti, sia che si tratti di giornalisti che rispondono al telefono e verificano i fatti, sia che si tratti di utenti di Reddit che hanno avuto esattamente quel problema con la batteria del nuovo cricchetto a batteria DeWalt e sono felici di raccontare come l’hanno risolto. Al contrario, le informazioni prodotte dai modelli linguistici di intelligenza artificiale e dai chatbot sono spesso errate. Il problema è che quando sono sbagliate, lo sono in modi difficili da individuare.

Ecco un esempio. All’inizio di quest’anno, stavo conducendo una ricerca sugli agenti di intelligenza artificiale, sistemi che utilizzano modelli linguistici come ChatGPT per connettersi ai servizi web e agire per conto dell’utente, ordinando generi alimentari o prenotando voli. In uno dei tanti thread virali su Twitter che esaltano il potenziale di questa tecnologia, l’autore immagina uno scenario in cui un’azienda di scarpe impermeabili vuole commissionare una ricerca di mercato e si rivolge ad AutoGPT (un sistema costruito sulla base dei modelli linguistici di OpenAI) per generare un rapporto sui potenziali concorrenti. Il documento che ne risulta è elementare e prevedibile. (Elenca cinque aziende, tra cui Columbia, Salomon e Merrell, insieme a punti elenco che presumibilmente delineano i pro e i contro dei loro prodotti. “Columbia è un marchio noto e rispettabile per l’attrezzatura e le calzature outdoor”, ci viene detto. “Le loro scarpe impermeabili sono disponibili in vari modelli” e “i loro prezzi sono competitivi sul mercato”. Potreste pensare che si tratti di un’affermazione così banale da essere sostanzialmente inutile (e avreste ragione), ma l’informazione è anche sottilmente sbagliata.

I contenuti generati dall’intelligenza artificiale sono spesso sottilmente sbagliati

Per verificare il contenuto del rapporto, l’ho sottoposto a una persona che ritenevo una fonte affidabile sull’argomento: un moderatore del subreddit r/hiking di nome Chris. Chris mi ha detto che il rapporto era essenzialmente riempitivo. “Ci sono un mucchio di parole, ma non c’è alcun valore reale in ciò che è scritto”, ha detto. Non cita fattori importanti come la differenza tra scarpe da uomo e da donna o i tipi di tessuto utilizzati. Sbaglia i fatti e classifica i marchi con una maggiore presenza sul web come più meritevoli. In generale, dice Chris, non c’è competenza nelle informazioni, ma solo congetture. “Se mi venisse posta la stessa domanda, darei una risposta completamente diversa”, ha detto. “Seguire i consigli dell’intelligenza artificiale molto probabilmente si tradurrà in piedi feriti sul sentiero”.

Si tratta della stessa lamentela identificata dai mod di Stack Overflow: la disinformazione generata dall’intelligenza artificiale è insidiosa perché spesso invisibile. È fluente ma non basata sull’esperienza del mondo reale, e quindi richiede tempo e competenza per essere eliminata. Se i contenuti generati dalle macchine sostituissero la paternità umana, sarebbe difficile – o addirittura impossibile – mappare completamente i danni. È vero che anche le persone sono fonti abbondanti di disinformazione, ma se i sistemi di IA soffocano anche le piattaforme dove attualmente prospera l’esperienza umana, ci saranno meno opportunità di rimediare ai nostri errori collettivi.

Gli effetti dell’IA sul web non sono semplici da riassumere. Anche nella manciata di esempi citati sopra, sono in gioco molti meccanismi diversi. In alcuni casi, sembra che la minaccia percepita dell’IA sia usata per giustificare cambiamenti voluti per altri motivi (come nel caso di Reddit), mentre in altri l’IA è un’arma in una lotta tra i lavoratori che creano il valore di un sito e le persone che lo gestiscono (Stack Overflow). Ci sono anche altri settori in cui la capacità dell’IA di riempire le caselle sta avendo effetti diversi: dai social network che sperimentano il coinvolgimento dell’IA ai siti di shopping in cui le cianfrusaglie generate dall’IA competono con altri prodotti.

In ogni caso, la capacità di scalare dell’intelligenza artificiale, il semplice fatto della sua abbondanza, cambia una piattaforma. Molti dei siti di maggior successo del web sono quelli che sfruttano la scala a loro vantaggio, sia moltiplicando le connessioni sociali o la scelta dei prodotti, sia ordinando l’enorme conglomerato di informazioni che costituisce internet stesso. Ma questa scala si basa su masse di esseri umani per creare il valore sottostante, e gli esseri umani non possono battere l’intelligenza artificiale quando si tratta di produzione di massa. (Anche se dietro le quinte c’è molto lavoro umano necessario per creare l’IA). C’è un famoso saggio nel campo dell’apprendimento automatico noto come “La lezione amara”, in cui si osserva che decenni di ricerca dimostrano che il modo migliore per migliorare i sistemi di IA non è quello di cercare di ingegnerizzare l’intelligenza, ma semplicemente di gettare più potenza di calcolo e dati sul problema. La lezione è amara perché dimostra che la scala delle macchine batte la cura umana. E lo stesso potrebbe valere per il web.

Ma questo deve essere per forza un male? Se il web come lo conosciamo cambia di fronte all’abbondanza artificiale? Alcuni diranno che è solo la via del mondo, notando che il web stesso ha ucciso ciò che lo precedeva, e spesso in meglio. Le enciclopedie cartacee sono quasi estinte, per esempio, ma io preferisco l’ampiezza e l’accessibilità di Wikipedia alla pesantezza e alla rassicurazione dell’Enciclopedia Britannica. E per tutti i problemi associati alla scrittura generata dall’intelligenza artificiale, ci sono anche molti modi per migliorarla: dal miglioramento delle funzioni di citazione a una maggiore supervisione umana. Inoltre, anche se il web è inondato di spazzatura generata dall’intelligenza artificiale, ciò potrebbe rivelarsi vantaggioso, stimolando lo sviluppo di piattaforme meglio finanziate. Se Google fornisce costantemente risultati spazzatura nella ricerca, ad esempio, si potrebbe essere più inclini a pagare per le fonti di cui ci si fida e a visitarle direttamente.

In realtà, i cambiamenti che l’intelligenza artificiale sta attualmente provocando sono solo gli ultimi di una lunga lotta nella storia del web. In sostanza, si tratta di una battaglia per le informazioni: chi le produce, come vi si accede e chi viene pagato. Ma il fatto che la lotta sia familiare non significa che non sia importante, né garantisce che il sistema che seguirà sarà migliore di quello attuale. Il nuovo web sta lottando per nascere e le decisioni che prendiamo ora daranno forma alla sua crescita.

La Leggenda di Slender Man

Presto nelle sale cinematografiche verrà trasmesso il film Horror “Slender Man”, un film molto atteso, anche grazie alla leggenda che circonda questo personaggio. Ma chi è in realtà Slender Man? Innanzitutto egli è conosciuto anche con gli appellativi Slendermean, Slender oppure semplicemente  Slandy, da come si è constatato in vari racconti e fan art che si trovano sul web, il suo nome significa semplicemente “Uomo Esile”. Egli è un personaggio immaginario creato da Eric Knudsen, conosciuto anche con il nome d’arte Victor Surge; per via di un concorso fotografico del 2009 sul sito Something Awful, lo scopo di tale concorso era che i partecipanti ritoccassero fotografie reali, aggiungendo particolari di natura macabra oppure inserendo entità misteriose. La foto che presentò Knudsen al concorso, fu una foto di un parco con dei bambini, lui aggiunse lo “Slender Man” insieme ai bambini e ritoccò la foto in quella che viene definita modalità “Seppia” arricchendola anche con una breve leggenda, la giuria fu talmente impressionata che Knudsen vinse tale concorso.

Come è nata l’idea dello Slender Man? Da un’intervista pubblicata sul sito “Know Your Name”, Knudsen dichiarò che per creare lo Slender Man, si era ispirato a varie leggende popolari come l’Uomo Nero e prese anche ispirazioni da varie opere letterarie di vari autori come H.P. Lovecraft, Zack Parsons, Williman Seward Burroughs II e anche dal romanzo “The Fog” (La Nebbia) di Stephen King. Nel gennaio del 2010 Eric Knudsen registrò il nome di Slender Man come copyright, visto il successo del suo personaggio, ecco il perché sono utilizzati appellativi o aggettivi similari e non il nome vero e proprio del personaggio.

Come ottenne una tale diffusione sul web? Il personaggio dello Slender Man grazie al concorso divenne così famoso da essere poi il protagonista in molti racconti in quelli che vengono definiti Creepypasta (ovvero racconti horror creati principalmente per il web) e in molte fan art, il successo del personaggio creato da Knudsen divenne un vero e proprio fenomeno virale, tanto che moltissimi fan crearono varie comunità web dedicate allo Slender Man. Successivamente su un canale YouTube chiamato “Marblehomets” vennero diffusi una serie di video, strutturati come fossero una specie di documentari, un po’ come fu per il film “The Blair Witch Project”; in questi video si vedono dei ragazzi che vogliono filmare degli eventi misteriosi per un concorso scolastico; durante le varie riprese viene individuato un essere che perseguita i ragazzi protagonisti del video. Questo essere viene definito “l’Operatore” e si serve di due Proxy (intermediari) che, celando i loro volti con delle maschere, eseguono gli ordini dell’“Operatore” mantenendo sempre celata la loro vera identità. Tale serie sul web ebbe tantissime visualizzazioni e molto consenso tra il pubblico, il successo fu tale che vennero realizzati vari cortometraggi e film indipendenti sempre ispirati allo Slender Man, ma non solo, furono creati anche vari fan game e videogiochi,  nel 2012 venne infatti sviluppato e rilasciato un survival horror dalla Parsec Productions intitolato “Slender: The Eight Pages”, da esso furono creati varie versioni anche da sviluppatori indipendenti, tutti a diffusione gratuita. Nel 2013 la Parsec Productions in collaborazione con la Blue Isle Studios svilupparono “Slender: The Arrival”  il primo videogioco a pagamento dedicato al personaggio, distribuito per Pc, Playstation 3 e Xbox 360. Nel 2014 venne realizzato un fan game intitolato “Slender: Lo Sguardo dell’Orrore”, a opera di Luca Bersigna un fan del personaggio. L’opinionista del canale statunitense della BBC Radio 4 Aleks Krotoski, definì lo Slender Man come “il primo grande mito del web”, mentre lo scrittore del romanzo “The Elm”, Tye Van Horn definì lo Slender Man come una delle tante raffigurazioni della paura che l’essere umano ha dell’ignoto. Il successo di tale personaggio è tale, tanto che ha ispirato alcuni personaggi in varie serie televisive e film come “Supernatural”, “Doctor Who”, “Lost Girl” e il film “The Conjuring 2” e “Miss Peregrine” tanto per citarne alcuni, anche se molti autori asseriscono che esse sono solo una pura coincidenza, esso vi appare anche come “Easter Egg” in vari videogiochi, film, serie tv e cartoni animati come Minecraft e My Little Pony. Grazie a tale visibilità da parte di un pubblico così vasto a livello globale, il personaggio di Slender Man diede il via alla creazione di svariati personaggi simili oppure ispirati a lui come lo “Splendor Man”, il “Trender Man” e lo “Slender Woman” per fare alcune citazioni, esso diede il via anche ad altre correnti letterarie via internet oltre alle Creepypasta, come le “Happypasta” ad esempio.

Come si presenta lo Slender Man? Molto spesso in varie raffigurazioni, lo Slender Man viene presentato come un uomo di colorito bianco pallido, il suo volto appare liscio sena la presenza di occhi, naso e bocca, la statura appare esile sinuosa e armoniosa e la sua altezza è di circa  due metri e mezzo con le articolazioni superiori allungate con mani provviste di artigli, la sua schiena può sprigionare tutta una serie di tentacoli, si presenta sempre con un vestito nero elegante. Principalmente egli si manifesta nelle foreste o in luoghi abbandonati e bui, ma può anche apparire in zone abitate, specie se deve cingere la sua preda. Le sue prede preferite sono i bambini e i ragazzi tra i 5 anni e i 17 anni, anche se in alcuni casi prende di mira anche gli adulti. Quando lo Slender Man ha scelto la sua preda, egli la segue ovunque essa si trovi, anche in capo al mondo presentandosi davanti a essa in maniera nitida.

SLENDER MAN - Official Trailer (HD)

Questo è uno dei vari esempi, di come un personaggio, un luogo, oppure una storia completamente immaginaria, grazie a tutta una serie di eventi, come nel caso dello Slender Man, un concorso fotografico, in un lasso di tempo relativamente breve, divenne un vero e proprio personaggio Cult. Prossimamente grazie anche all’uscita del film, approfondiremo questo personaggio e cercheremo anche di approfondire su altre leggende urbane che circolano nel web.

Furti d’identità sul Web

IMG_6164.JPG
Le insidie del web aumentano ed è possibile ritrovarsele dietro l’angolo per ogni password troppo accessibile, dati privati inseriti in form online, foto pubblicata sui social network o mail equivoche che richiedono varie coordinate. E se fino a poco tempo fa la fobia più grande era quella che potesse venire clonata la carta di credito, acquisita oggi la sicurezza nella massima parte delle transazioni, il pericolo reale e più frequente è il furto d’identità che, oltre a violare la privacy e recare danni economici e d’immagine, porta con sé retroscena psicologici allarmanti.
Lo dimostra la ricerca condotta per City Confidential dall’Europol di Klara Murnauche, sulla base dei dati raccolti ha dimostrato l’aumento esponenziale del fenomeno furto d’identità attestatosi negli ultimi mesi ha toccato cifre da capogiro: 25.000 casi per un danno complessivo da 200 milioni di euro.
Furti d’identità: Social Network nell’occhio del mirino
Si tratta “dell’utilizzo improprio di identità digitali clonate per poter diffamare o sfruttare l’immagine dell’originale tramite social network” spiega Klara Murnau per City Confidential su Funweek.it. “Si può diventarne vittime inconsapevoli per il solo fatto di non essere adeguatamente protetti. Le foto pubbliche sui social, quindi alla mercé di tutti, proprio quelle che ci danno l’illusione di avere un briciolo di popolarità, possono diventare ottimo materiale su cui creare esistenze parallele. Ma non basta renderne la visione privata per essere tutelati, in quanto il doppiatore tra le altre ipotesi,  potrebbe anche celarsi con la sua vera identità, proprio tra i contatti approvati”.
IMG_6165.JPG
Che cosa dice la legge italiana?
“In Italia non esiste una legge che tuteli l’identità digitale” spiega Klara Murnau su Funweek.it “per giudicare questo tipo di crimine si adotta il riferimento legislativo dell’articolo 494 del codice penale, che regola il furto d’identità offline. Siamo definitivamente entrati nell’epoca del  cyber stalking silenzioso?  Uno strano Blade Runner misto Matrix. Improvvisamente il futuro non è mai stato così a portata di click”. Messi alla berlina per il furto d’identità sono quindi innanzitutto i social network, nella loro infinita gamma, dai più sicuri a quelli meno noti, ma anche le nostre immagini che girano sul web…

Risposta di uno stanco delle catene

“…La dovete da fa’ finita de mannamme ‘ste catene tipo che er monno è bello, ma solo se rispedisco tutto subbito, sinnò so’ ‘no sfigato. Come quer negro dell’Alabama che nun ha risposto a quattromilaseicento imeil e nun ha fatto ‘n tempo manco a dì “A” che s’è ritrovato all’arberi pizzuti; o come er caubboi Gion, texano, che tutt’an botto je so’ cascati li cojoni perché nun ha risposto ecc.ecc.

E che te lo dico a fa’ de quelli che me manneno le imeil dicennome che ce sta ‘n provaider, guarda caso americano, che pe’ ogni imeil che ariva rigala ‘n centesimo in beneficenza alla Lega pe’ la Lotta alla Peste, e che quindi bisogna mannanne a secchi. Ma io me so’ rotto li coj**!!!

Oppure qull’antro che c’ha er fijo piccolo che c’ha ‘na malatia rarissimache manco se conosce (e quell o stà ner Missuri), e che te scrive puro er nummero de telefono perché così je telefoni e je dai tutte le notizie possibili.

(Che si poi guardi le date t’accorgi che so’ passati tre anni da quanno è partita la catena e perciò bonanotte ar secchio!) E poi dico, cazzo, a me me vieni a domannà de robba medica che so’ de ‘a Majana e nun so’ manco bono a metteme ‘n cavolo de cerotto?

E de quello che me dice che c’è ‘n virus nela posta elettronica, che si nun stai attento te lo piji pure te dalla tastiera, che è peggio de quello che te poi pijà si vai co’ ‘na niggeriana, e nun fate finta che nun losapete, che tanto ce lo sapete tutti! E via a mannà imeil…

Quelli poi che te manneno la fotocopia der Centro Antitumori der Prenestino dove li scienziati te dicheno che si te magni ‘n ovo ar tegamino te viè er cancro all’ucello, o che fasse lo sciampo è peggio de fumasse tre stecche de MS senza firtro.

Ancora gireno quelli che dicheno che li giapponesi infileno li gatti dentro le bottije, e te dicheno “annamoje a ‘ntasà er sito!!!”.

E come te poi scordà de quelli che scrivono de quelli dell’Ericcson che danno via li telefonini come si fossero fusaje, e che loro c’hanno pure provato e funziona! Basta invià er messaggio a tutti quelli che conosci che ner giro de ‘n par de settimane t’ariva a casa Mario J.J.Ericsson in persona, che sa quante imeil hai mannato, e te porta sur portone de casa er cartoccio co’ ‘r telefonino de urtima gerazione, Trial bend, co’ ‘r GIPPIEREESSE, e la custodia in pitone che ancora se move…

A ‘sto punto fateme ‘n piacere: mannateme foto de nonna, barzellette e artre puttanate, ma ABBASTA CO’ ‘STE CATENE! Che m’apro ‘na feramenta e me le venno! E speriamo che ‘st’imeil nun ariva in Luisiana, da una che s’è rotta er cazzo più de me e me manna affanc***!!!!!!!!!!!!!!!!!!!!!”

———–

SO’ TROOOOOOOPPPO POLIGLOTTAAAAAAAAAAAA!!!!!!!!!!!!!!!!!!

Exit mobile version