Cet article a été écrit par Tom Travel. Cliquez ici pour lire l'article d'origine
Si vous êtes l'auteur de cet article, cliquez ici pour découvrir comment la republication de votre article améliore votre SEO et votre visibilité !
Airbnb déploie sa technologie d’intelligence artificielle pour bloquer les réservations jugées à risque durant la période du Nouvel An. Plus de 20 000 utilisateurs américains ont été exclus l’an dernier.
Avoir le sens de la fête, c’est une chose. Être identifié et bloqué par AirBnB pour sa propension à s’amuser, c’est déjà moins sympathique. La plateforme de location courte durée active pour la cinquième année consécutive sa technologie « anti-fête » à l’approche du réveillon du Nouvel An. L’objectif est de prévenir les rassemblements « disruptifs » et les nuisances de voisinage dans les logements proposés à la location. Lorsqu’une réservation est suspecte, elle peut être purement bloquée ou redirigée vers des alternatives comme des chambres privées ou des hébergements hôteliers classiques.
Les chiffres témoignent de l’ampleur du dispositif de filtrage. Durant la période du Nouvel An 2024, environ 20 000 personnes aux États-Unis ont été empêchées de réserver un logement entier. Depuis la mise en place de l’interdiction des fêtes, Airbnb affirme que plus de 99,9 % des réservations en 2024 n’ont fait l’objet d’aucun signalement de nuisance festive.
Le dispositif repose sur une technologie d’apprentissage automatique qui analyse des centaines de signaux pour identifier les réservations présentant un risque élevé de fête perturbante. Parmi ces critères qui n’annoncent rien de bon : les réservations de dernière minute, celles effectuées à proximité du lieu de résidence du locataire, ou encore des combinaisons spécifiques de facteurs comportementaux jugés suspects. Le système d’Airbnb ne se contente donc pas de réagir à des violations avérées : il prédit et bloque préventivement l’accès au service pour des profils jugés à risque. Cette logique prédictive, basée sur des corrélations statistiques, peut conduire à l’exclusion de certains utilisateurs sans preuve tangible de mauvaise intention.
Avec cette exploitation des données et l’apprentissage de l’algorithme, AirBnB entend faire respecter, de façon préventive, les règles mises en place pour préserver la tranquillité des quartiers résidentiels et maintenir la réputation de la plateforme. Le recours à l’IA avait été expérimenté dès octobre 2021 en Australie avant de se généraliser Cette disposition concerne désormais également les Etats-Unis, le Canada, le Royaume-Uni, l’Espagne et la France. L’entreprise avait été confortée dans le durcissement de ses règles après des cas de fusillade qui s’étaient produits dans le cadre de fêtes organisées dans des lieux loués sur la plateforme.
Photo d’ouverture générée par IA/Dust
A lire également :
– Publicité –
Input your search keywords and press Enter.