Sviatlana Höhn répond aux questions de Tetyana Karpenko. Sviatlana, Docteur en science informatique, travaille actuellement sur la création de chatbots (les robots de conversation)
Historique:
Eh bien, ce n’est pas exactement de cette façon qu’on voudrait imaginer l'avenir. Rempli de chatbots agressives et néo-nazis. Mais c'est exactement comme ça, que l'avenir a frappé récemment à notre porte - comme un bot Tay suspect et méchant.
Avec beaucoup d’enflure Microsoft a présenté son chatbot, qui était censé imiter un adolescent en train de tweeter. Tout le monde a été invité à discuter avec Tay, et un grand nombre de personnes a joué le jeu. Mais à un certain moment chatbot a commencé à passer d’étranges messages sexistes et néonazis . Microsoft a mis Tay hors ligne et a supprimé tous les tweets offensifs. La situation s’est reproduite, une fois Tay remis en marche.
Microsoft a déclaré: les interlocuteurs de Tay ont abusé d'une fonction "répéte après moi". Ils ont juste forcé le chatbot à répéter constamment des remarques offensives et il les a adopté. Maintenant Tay est mis à nouveau en mode silence. Malgré l'embarras de Microsoft ce dernier a proclamé que nous allions bientôt utiliser des assistants personnels - type chatbots comme Tay (espérons une version améliorée de celui-ci).
Enregistrement audio de la partie II de l'entretien (version intégrale).
Sviatlana répond aux questions suivantes:
- En parlant de ce bot, "Tay", il était censé apprendre des autres, et nous voyons qu'il a fini par être ridicule. Les adolescents ont abusé, en demandant de répéter des choses différentes. Ils ont juste ordonné "répéte après moi".
- Quelle est votre opinion, les chercheurs pensaient-ils vraiment que ce fut une bonne façon d'apprendre?
- Il y a une chose dans l’intelligence artificielle, appelé «l'apprentissage en profondeur». Dans l’Institut de Technologie du Massachusetts, "revue de la technologie", il est ecrit que cet algorithme est également utilisé dans les actualités de Facebook - bots Messenger.