Android Central

Google призовава служителите си да бъдат внимателни с AI chatbots, включително Bard

protection click fraud

Какво трябва да знаете

  • Google започва да предупреждава служителите си да не изпращат поверителен фирмен информационен код в собствения си AI софтуер Bard.
  • Компанията става все по-загрижена за потенциала от изтичане на данни, тъй като информацията в бота може да стане публично достояние.
  • Подобни мерки за поставяне на по-голям акцент върху поверителността и сигурността с AI софтуер се появиха в ЕС и Samsung.

Въпреки Google втурвайки се напред за да изпече свой собствен AI чатбот в своята търсачка, компанията сега се опитва да отклони служителите от използването му. Според Ройтерс, компанията, базирана в Маунтин Вю, съветва служителите да се въздържат от потапяне на поверителни материали в AI chatbot. Alphabet разшири това предупреждение и към компютърния код.

Google Bard може да помогне на програмистите с тяхното кодиране, но, както заявява компанията, компанията каза на Reuters, че понякога може да предостави "нежелани" предложения. Освен това, поради начина, по който работят чатботове като Bard, има потенциал за изтичане на данни. Не само човек може да прочете вашия чат (поради такава причина), но друг AI може да вземе тази информация като част от процеса на обучение и след това го разпръсква в замяна на друго запитване, Reuters обясни. На свой ред това би позволило изключително чувствителни данни да станат публични.

Компанията има изявление за това Bard ЧЗВ страница, която казва на потребителите да не „включват информация, която може да се използва за идентифициране на вас или други във вашия Bard разговори." В края на деня обаче чатботът не може да разбере каква поверителна фирмена информация или кодът изглежда така.

Google също така информира Ройтерс за текущото си задръстване в ЕС, докато се обръща към Комисията за защита на данните на Ирландия. Те са загрижени за въздействието на Bard върху поверителността на потребителите, което повтаря други опасения на Европейската комисия.

AI на Google IO 2023
(Кредит за изображение: Android Central)

Европейската комисия и Google преговарят от май за изготвянето на проекта нови насоки за AI софтуер, считан за „AI Pact“. Този доброволен пакт ще засегне европейски и неевропейски страни, тъй като Комисията се стреми да се справи със софтуера с изкуствен интелект и неговите потенциални рискове за поверителността.

Това включва и Съединените щати, които също работят с ЕС за създаване на нов „минимален стандарт“ за AI, тъй като опасенията продължават да нарастват относно потенциалните опасности за сигурността на човек, който използва чатбот.

Освен това Google насочва служителите си далеч от изпращане на поверителна фирмена информация и чувствителни данни в своя AI chatbot ехо какво направи Samsung със своите работници през май. Корейският OEM всъщност забрани на служителите си да използват AI chatbots като Bard и ChatGPT след злополука с инженер на Samsung. Те изпратиха поверителен фирмен код в AI chatbot, което доведе до бързото и внезапно прекъсване на софтуера.

По време на Google I/O 2023 компанията заяви, че ще се фокусира върху това да бъде "отговорен“ със своя AI софтуер. Компанията каза пред Ройтерс, че се стреми да бъде прозрачна относно ограниченията на технологията.

instagram story viewer