Чат-ботът на Microsoft влезе онлайн, призна че използва наркотици и отново бе изключен

Чат-ботът с изкуствен интелект Tay на Microsoft започна да общува с обикновените потребители в Twitter. Ботът имитира общуване с виртуална тинейджърка. Неукрепналият още ИИ не можа да се справи с наплива на троловете и започна да повтаря техните расистки фрази. Корпорацията изтри по-голямата част от коментарите на своя бот и го изключи, за да усъвършенства неговото общуване, пише kaldata.com.
Microsoft се извини на всички потребители за поведението на своя бот. Корпорацията очевидно счете, че вече всичко е наред и отново включи Tay. Според създателите на Tay, ботът вече може по-добре да различава вредните нюанси на речта. Въпреки това, малко след като бе включен, ботът си призна, че взема наркотици.След това ботът помоли своите 210 000 последователи да изчакат и да си починат. Явно това е своеобразната защита на ИИ при непредвидени ситуации, понеже тази молба бе повторена многократно. Малко по-късно Microsoft отново изключи Tay.
Да си припомним, че същият бот на Microsoft отдавана си общува потребителите в Китай, където си взаимодейства с около 40 милиона души в Twitter, Line, Weibo и други социални ресурси. Англоезичната версия на Tay все не успява да се справи с информацията, с която я засипват интернет-троловете.
Чат-ботът на Microsoft предизвика много голям интерес в уеб-пространството, като някои потребители считат, че Tay е най-големият успех в историята на корпорацията.