אנדרואיד מרכזי

גוגל ואחרות מסכימות לקדם את נוהלי הבטיחות של AI עם הבית הלבן

protection click fraud

מה שאתה צריך לדעת

  • גוגל, יחד עם שש חברות נוספות, התחייבו מרצון לקדם נהלי בטיחות בינה מלאכותית.
  • המחויבות של החברות תתפרש, תזכה באמון הציבור, אבטחה חזקה יותר ודיווח ציבורי על המערכות שלהן.
  • זה מהדהד שיתוף פעולה דומה שיש לגוגל עם האיחוד האירופי שנקרא "הסכם AI".

גוגל מכריז שהיא, יחד עם עוד שש חברות AI מובילות, חוברות יחד כדי לקדם "פרקטיקות אחראיות בפיתוח בינה מלאכותית". גוגל, אמזון, אנתרופיק, Inflection, Meta, Microsoft ו-OpenAI התחייבו כולן מרצון לפרקטיקות המתקדמות החדשות הללו ונפגשות עם ממשל ביידן-האריס בבית הלבן ביולי 21.

אחת ההתחייבויות הגדולות ביותר, ללא ספק, היא בניית אמון בבינה מלאכותית או, כפי שהבית הלבן הצהיר ב גיליון מידע, "לזכות באמון הציבור". גוגל מצטט את עקרונות AI היא נוצרה עוד ב-2018 כדי לעזור לאנשים להבין ולהרגיש בנוח סביב תוכנת הבינה המלאכותית שלה.

עם זאת, כפי שמציינת מנהלת ביידן-האריס, חברות חייבות להתחייב לפתח דרכים ליידע את המשתמשים מתי תוכן נוצר בינה מלאכותית. כמה דרכים כוללות סימון מים, מטא נתונים וכלים אחרים כדי לאפשר למשתמשים לדעת מאיפה משהו, כמו תמונה, מקורו.

על החברות הללו מוטלת גם המשימה לחקור את הסיכונים למערכות בינה מלאכותית של החברה, כגון "הטיה מזיקה, אפליה והגנה על הפרטיות".

בארד ב-Google IO 2023
(קרדיט תמונה: Android Central)

בשלב הבא, חברות חייבות לדווח באופן רציף על מערכות ה-AI שלהן בפומבי, כך שכולם, כולל הממשלה ואחרים בתעשייה, יכולים להבין היכן הם נמצאים לגבי גורם סיכון ביטחוני וחברתי רָמָה. פיתוח בינה מלאכותית כדי לסייע בפתרון בעיות בריאות ושינויים סביבתיים נכלל ברשימת המחויבות.

אבטחה היא עוד נושא חם, וכפי שקובע גיליון המידע של הבית הלבן, כל שבע החברות אמורות להשקיע באמצעי אבטחת סייבר ו"פרוטוקולי איומים פנימיים" כדי להגן על משקלי דגמים קנייניים ולא פורסמו. האחרון נחשב לחשוב ביותר בעת פיתוח פרוטוקולי האבטחה הנכונים עבור מערכות AI.

חברות נדרשות גם לאפשר גילוי של צד שלישי ולדווח על כל פגיעות במערכות שלהן.

הפעלת ChatGPT ב-Google Pixel Watch עם אפליקציית WearGPT
(קרדיט תמונה: ניקולס סוטריץ' / אנדרואיד סנטרל)

כל זה חייב להיעשות לפני שחברות יוכלו להפיץ מערכות AI חדשות לציבור, קובע הבית הלבן. שבע החברות צריכות לבצע בדיקות אבטחה פנימיות וחיצוניות של מערכות ה-AI שלהן לפני השחרור. בנוסף, יש צורך לשתף מידע על פני התעשייה, הממשלה, החברה האזרחית והאקדמיה על שיטות עבודה מומלצות לבטיחות ואיומים אחרים על המערכות שלהם.

בטיחות ונוחות עם בינה מלאכותית נדרשות כפי שחברות כמו גוגל הזהירו את עובדיהן לכך אזהרה לגבי התעמלות בעת שימוש בצ'אטבוטים של AI בגלל חששות אבטחה. זה לא המקרה הראשון של פחד כזה, שכן סמסונג חשה מאוד כאשר מהנדס הגיש בטעות קוד חברה סודי לצ'אט בוט של AI.

לבסוף, גוגל מתחייבת מרצונה לקדם שיטות בינה מלאכותיות בטוחות יחד עם מספר אחרות מגיעה חודשיים לאחר הצטרפותה לאיחוד האירופי להסכם דומה. החברה שיתפה פעולה כדי ליצור את "הסכם בינה מלאכותית", קבוצה חדשה של הנחיות לחברות באזור נקראו להסכים מרצון לקבל טיפול בתוכנת AI לפני שזה הולך רחוק מדי.

instagram story viewer