Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Интересные новости

Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Гугл обеспокоен использованием чат-ботов в дочерней Alphabet. Под подозрением даже собственный Bard. Впрочем, остальному миру ИИ активно втюхивается.

Гугл посоветовал сотрудникам не вводить собственные конфиденциальные данные в чат-боты. Политика объясняется безопасностью, пишет xrust. Ведь тестировщики ИИ выявили удивительную вещь – плоды обучения иногда используются Bard и ChatGPT. Другими словами, настраивая чат-бот путем использования собственных жизненных фактов, вы можете сделать их достоянием «вселенной».

Однако, самое неприятное – предупреждение относительно бездумного применения программ, генерируемых чат-ботами. Их следует тщательно анализировать. Они, конечно, помогают программистам, но требуют особого внимания. К сожалению Гугл, предупреждая сотрудников, не допустил утечки фактов в интернет.

Настораживая персонал, Google стремится навредит бизнесу программным обеспечением. Ведь скомпрометировав себя, корпорация потеряет многомиллиардные инвестиции, которые уйдут OpenAI и Microsoft.

Заметим, что такая настороженность Гугла отражает общую тенденцию – корпорации уже начали предупреждать контингент, работающий с ИИ. Например, Samsung, Amazon, Deutsche_Bank ограничили перечень вопросов, решаемых искусственным интеллектом.

Другие новости. Украина наступает – здесь. Германия боится лишиться российского газа – тут. Самый большой камень в почках – там.

Гугл предупредил сотрудников о некоторой неадекватности чат-ботов

Оригинал статьи размещен в Новости Xrust

Оцените статью
Новости Екатеринбурга
Добавить комментарий