AI contro noleggiatori: la crescente controversia sul rilevamento automatizzato dei danni di Hertz

20

L’integrazione dell’intelligenza artificiale nel settore delle auto a noleggio è passata da un concetto futuristico a un campo di battaglia legale e di consumo in prima linea. Al centro di questo attrito c’è Hertz, che ha implementato un sistema di scansione ad alta tecnologia progettato per eliminare l’errore umano, ma i critici sostengono che potrebbe creare un nuovo modo di addebitare ingiustamente ai clienti.

La tecnologia: come funziona UVeye

L’anno scorso, Hertz ha lanciato uno strumento sviluppato da UVeye, un sistema di scansione basato sull’intelligenza artificiale. Il processo è semplice:
1. Scansione in uscita: il veicolo viene scansionato mentre lascia il centro di noleggio.
2. Scansione in entrata: il veicolo viene nuovamente scansionato al momento della restituzione.
3. Confronto AI: il software confronta le due serie di immagini per identificare nuovi graffi, ammaccature o problemi strutturali.

Hertz sostiene che questo sistema fornisce un livello di precisione che un’ispezione manuale e frettolosa di un dipendente semplicemente non può eguagliare. Secondo l’azienda, la tecnologia effettivamente riduce le controversie fornendo una documentazione chiara e obiettiva. Hertz riferisce che oltre il 97% delle scansioni non comporta alcun addebito, suggerendo che la stragrande maggioranza dei clienti restituisce i veicoli in condizioni accettabili.

La polemica: danno “invisibile” e diritti dei consumatori

Nonostante le affermazioni della società, il sistema ha dovuto affrontare notevoli resistenze. La tensione principale risiede nel divario tra ciò che un essere umano può vedere e ciò che rileva un algoritmo.

Jack Schlossberg, candidato al Congresso e nipote dell’ex presidente John F. Kennedy, è entrato nella mischia. In un recente video della campagna, Schlossberg ha espresso preoccupazione per il fatto che Hertz stia utilizzando l’intelligenza artificiale per fatturare ai clienti “danni microscopici invisibili a occhio nudo.”

La sua argomentazione è incentrata su due punti principali:
* Pratiche sleali: se l’addebito di imperfezioni microscopiche costituisce una pratica commerciale sleale.
* Procedura dovuta: se i consumatori dispongono di un modo significativo e accessibile per contestare gli addebiti automatizzati.

Schlossberg ha invitato la Federal Trade Commission (FTC) a indagare. Tuttavia, la FTC è rimasta non impegnativa. Joseph Simonson, direttore degli affari pubblici della FTC, ha dichiarato che l’agenzia non accetta indicazioni dai candidati politici e ha rifiutato di commentare se siano attualmente in corso indagini.

Il conflitto principale: dati contro aneddoti

Sebbene la retorica politica sia elevata, i dati reali rimangono divisi tra due diverse prospettive:

Il caso del sistema

  • Obiettività: I sostenitori sostengono che l’intelligenza artificiale rimuove la soggettività e la potenziale pigrizia degli ispettori umani.
  • Efficienza: le scansioni automatizzate sono più veloci e più coerenti rispetto ai controlli manuali.
  • Alto tasso di successo: Hertz indica il tasso “gratuito” del 97% come prova che il sistema non è predatorio.

La causa contro il sistema

  • Difficoltà della controversia: Molti affittuari riferiscono che è incredibilmente difficile contattare un rappresentante umano per contestare un addebito generato dall’intelligenza artificiale.
  • Mancanza di trasparenza: attualmente non sono disponibili dati pubblici riguardanti i “falsi positivi”, ovvero casi in cui l’IA identifica erroneamente danni già presenti o inesistenti.
  • Il fattore “invisibile”: Se l’intelligenza artificiale rileva danni che una persona ragionevole non può vedere, crea una disconnessione fondamentale tra l’esperienza del consumatore e la fatturazione dell’azienda.

Perché è importante

Questa disputa è un microcosmo di una tendenza globale più ampia: la tensione tra efficienza automatizzata e protezione dei consumatori. Mentre le aziende sostituiscono sempre più il controllo umano con l’intelligenza artificiale, la natura “scatola nera” degli algoritmi crea uno squilibrio di potere. Se una macchina decide che sei in debito, l’onere della prova spesso passa al consumatore, che potrebbe non avere gli strumenti tecnici per dimostrare che la macchina ha torto.

La questione centrale non è se la tecnologia funzioni, ma se il diritto umano di contestare una decisione automatizzata venga preservato in un’economia sempre più algoritmica.

Conclusione
Mentre Hertz afferma che la sua intelligenza artificiale fornisce una precisione senza precedenti, la protesta dei consumatori e dei personaggi politici evidenzia una crescente sfiducia nella fatturazione automatizzata. La risoluzione finale dipenderà probabilmente dal fatto che gli organismi di regolamentazione come la FTC decidano o meno che i danni “invisibili” rilevati dall’intelligenza artificiale richiedano una supervisione più rigorosa.