IA contre locataires : le différend croissant sur la détection automatisée des dommages de Hertz

15

L’intégration de l’intelligence artificielle dans le secteur de la location de voitures est passée d’un concept futuriste à un champ de bataille juridique et de consommation de première ligne. Au centre de cette friction se trouve Hertz, qui a mis en place un système de numérisation de haute technologie conçu pour éliminer les erreurs humaines, mais les critiques affirment que cela pourrait créer une nouvelle façon de facturer injustement les clients.

La technologie : comment fonctionne UVeye

L’année dernière, Hertz a déployé un outil développé par UVeye, un système de numérisation piloté par l’IA. Le processus est simple :
1. Scan sortant : Le véhicule est scanné à sa sortie du centre de location.
2. Inbound Scan : Le véhicule est à nouveau analysé au retour.
3. Comparaison IA : Le logiciel compare les deux ensembles d’images pour identifier de nouvelles rayures, bosses ou problèmes structurels.

Hertz maintient que ce système offre un niveau de précision qu’une visite manuelle et précipitée d’un employé ne peut tout simplement pas égaler. Selon l’entreprise, la technologie réduit réellement les litiges en fournissant une documentation claire et objective. Hertz rapporte que plus de 97 % des analyses n’entraînent aucun frais, ce qui suggère que la grande majorité des clients restituent les véhicules dans un état acceptable.

La controverse : dommages « invisibles » et droits des consommateurs

Malgré les affirmations de l’entreprise, le système a fait face à d’importantes résistances. La principale tension réside dans l’écart entre ce qu’un humain peut voir et ce qu’un algorithme détecte.

Jack Schlossberg, candidat au Congrès et petit-fils de l’ancien président John F. Kennedy, est entré dans la mêlée. Dans une récente vidéo de campagne, Schlossberg a fait part de ses inquiétudes quant au fait que Hertz utilise l’IA pour facturer à ses clients des “dommages microscopiques invisibles à l’œil nu.”

Son argumentation s’articule autour de deux points principaux :
* Pratiques déloyales : La facturation des imperfections microscopiques constitue-t-elle une pratique commerciale déloyale.
* Procédure régulière : Indique si les consommateurs disposent d’un moyen significatif et accessible de contester les frais automatisés.

Schlossberg a demandé à la Federal Trade Commission (FTC) d’enquêter. Cependant, la FTC est restée sans engagement. Joseph Simonson, directeur des affaires publiques de la FTC, a déclaré que l’agence ne suivait pas les instructions des candidats politiques et a refusé de dire si des enquêtes étaient actuellement en cours.

Le conflit central : données contre anecdote

Même si la rhétorique politique est forte, les preuves réelles restent divisées entre deux perspectives différentes :

Les arguments en faveur du système

  • Objectivité : Les partisans soutiennent que l’IA supprime la subjectivité et la paresse potentielle des inspecteurs humains.
  • Efficacité : Les analyses automatisées sont plus rapides et plus cohérentes que les vérifications manuelles.
  • Taux de réussite élevé : Hertz souligne le taux « sans frais » de 97 % comme preuve que le système n’est pas prédateur.

Les arguments contre le système

  • Difficulté de contestation : De nombreux locataires signalent qu’il est incroyablement difficile de joindre un représentant humain pour contester une charge générée par l’IA.
  • Manque de transparence : Il n’existe actuellement aucune donnée publique concernant les « faux positifs », c’est-à-dire les cas dans lesquels l’IA identifie de manière incorrecte des dommages déjà présents ou inexistants.
  • Le facteur « invisible » : Si l’IA détecte des dommages qu’une personne raisonnable ne peut pas voir, elle crée une déconnexion fondamentale entre l’expérience du consommateur et la facturation de l’entreprise.

Pourquoi c’est important

Ce conflit est le microcosme d’une tendance mondiale plus vaste : la tension entre l’efficacité automatisée et la protection des consommateurs. Alors que les entreprises remplacent de plus en plus la surveillance humaine par l’IA, la nature « boîte noire » des algorithmes crée un déséquilibre des pouvoirs. Si une machine décide que vous devez de l’argent, la charge de la preuve incombe souvent au consommateur, qui peut ne pas disposer des outils techniques nécessaires pour prouver que la machine a tort.

La question centrale n’est pas de savoir si la technologie fonctionne, mais si le droit humain de contester une décision automatisée est préservé dans une économie de plus en plus algorithmique.

Conclusion
Alors que Hertz affirme que son IA offre une précision sans précédent, le tollé des consommateurs et des personnalités politiques met en évidence une méfiance croissante à l’égard de la facturation automatisée. La solution finale dépendra probablement de la question de savoir si les organismes de réglementation comme la FTC décident que les dommages « invisibles » détectés par l’IA nécessitent une surveillance plus stricte.