Les entreprises trichent avec des services de fausse intelligence artificielle

Au lieu d’algorithmes, les gens réels font les services qu’ils représentent comme un travail d’intelligence artificielle.

L’intelligence artificielle est un sujet d’actualité dans le monde de la technologie, et cela va durer très longtemps. À l’heure actuelle, toute entreprise dans le domaine aimerait être parmi les premières à offrir un segment efficace de l’intelligence artificielle. Certaines entreprises le veulent tellement qu’elles sont prêtes pour la fraude, dit Guardian. L’une des escroqueries les plus populaires est la présentation de services d’intelligence artificielle, qui sont en fait réalisés par des gens très réels.

Le sujet a été abordé après que le Wall Street Journal a publié des informations selon lesquelles les entreprises offrent une variété de services pour améliorer les performances de Gmail, comme des réponses intelligentes. Dans le cas d’Edison Software, par exemple, elle n’a pas mentionné dans son service que de vraies personnes réviseraient aussi les lettres des utilisateurs pour sélectionner ou vérifier les réponses intelligentes qui sont préparées par son intellect artificiel.

Il y a beaucoup d’autres exemples. Spinvox, par exemple, a été accusé il y a des années que son logiciel de messagerie vocale dans le texte est en fait des gens qui appellent les mots à la main. Les services des patrons adjoints X.ai et Clara ont également été accusés d’être des quarts de travail de 12 heures. Expensify a également reconnu l’an dernier qu’au moins une partie des billets de banque manipulant ses logiciels sont effectivement importés par des personnes.

Dans certains cas, la fraude n’est pas ciblée. Certaines entreprises, par exemple, utilisent des personnes réelles dont les activités sont utilisées pour enseigner l’intelligence artificielle elle-même. Le problème est qu’ils omettent de mentionner ce détail aux utilisateurs qui pensent que personne ne lit leurs données. Dans d’autres cas, cependant, la méthode “tromper jusqu’à ce que vous réussissiez” est utilisée et les gens sont délibérément utilisés alors que l’intelligence artificielle devient réellement capable du service présenté.

Certaines entreprises n’y voient pas de problème. “Vous simulez ce qu’est l’expérience ultime, et quand il s’agit d’intelligence artificielle, il y a une personne derrière le rideau au lieu d’un algorithme “, a déclaré Alison Darcy, fondatrice de Woebot bot-psychologue. Elle ajoute que beaucoup d’argent et d’efforts sont nécessaires pour créer une bonne intelligence artificielle, et parfois les entreprises veulent voir si elles ont suffisamment d’intérêt pour leur service avant d’investir. Cependant, Darcy convient que le manque de transparence nuit à la technologie et crée de la méfiance et de la méfiance parmi les gens.

En fait, cela fait des gens un outil pour un prototype d’intelligence artificielle, dit Gregory Kobergge, PDG de ReadMe.

Reste la question de l’éthique. Une étude réalisée par des scientifiques de l’Université de Californie du Sud montre que les gens ont tendance à partager et à révéler davantage lorsqu’ils pensent qu’ils interagissent avec une machine qu’avec une personne, surtout lorsqu’il s’agit de services numériques.

Récemment, Google a testé ce problème de première main avec son nouveau service Google Duplex. Il simule les opérateurs téléphoniques réels pour accepter les demandes de renseignements, les réservations et répondre aux questions de base. Le comportement de l’intelligence artificielle est si réaliste qu’il a déclenché le mécontentement des gens. Google a donc annoncé que le service sera identifié à l’avenir avant que les utilisateurs qui interagissent avec lui pour savoir qu’ils ne parlent pas à une personne réelle.