Gemini ל-Google Cloud ואתיקה של בינה מלאכותית

במסמך הזה מתוארת תכנון של Gemini for Google Cloud בהתאם ליכולות, למגבלות ולסיכונים שקשורים ל-AI גנרטיבי.

היכולות והסיכונים של מודלים גדולים של שפה

מודלים גדולים של שפה (LLMs) יכולים לבצע משימות מועילות רבות, כמו:

  • שפת התרגום.
  • לסכם טקסט.
  • יצירת קוד וכתיבה יצירתית.
  • מפעילים צ'אט בוטים ועוזרים וירטואליים.
  • להשלים מנועי חיפוש ומערכות המלצות.

עם זאת, היכולות הטכניות המתפתחות של מודלים מסוג LLM יוצרות פוטנציאל לשימוש שגוי, שימוש לרעה ותוצאות לא רצויות או בלתי צפויות.

מודלים מסוג LLM יכולים ליצור תוצאות לא צפויות, כולל טקסט פוגעני, לא רגיש או לא מדויק מבחינה עובדתית. המודלים מסוג LLM הם גמישים מאוד, ולכן קשה לחזות בדיוק אילו סוגי פלט לא מכוונים או בלתי צפויים הם עשויים לייצר.

לאור הסיכונים והמורכבויות האלה, Gemini for Google Cloud תוכנן בהתאם לעקרונות ה-AI של Google. עם זאת, חשוב שהמשתמשים יבינו חלק מהמגבלות של Gemini Google Cloud כדי לעבוד בצורה בטוחה ואחראית.

מגבלות ב-Gemini ל- Google Cloud

חלק מהמגבלות שאתם עשויים להיתקל בהן כשמשתמשים ב-Gemini ל- Google Cloud כוללות (בין היתר) את אלה:

  • מקרים קיצוניים מקרים קיצוניים הם מצבים חריגים, נדירים או יוצאי דופן שלא מיוצגים היטב בנתוני האימון. במקרים כאלה, יכול להיות שיחולו מגבלות על הפלט של מודלים של Gemini, כמו ביטחון יתר במודל, פרשנות שגויה של ההקשר או פלטים לא מתאימים.

  • מודלים של הזיות, התמקדות בנושא ועובדות יכול להיות שהמודלים של Gemini לא יהיו מבוססים על ידע מהעולם האמיתי, על מאפיינים פיזיים או על הבנה מדויקת. המגבלה הזו עלולה להוביל להזיות של המודלים, שבהן Gemini for Google Cloud עשוי ליצור פלט שנשמע הגיוני אבל כולל עובדות שגויות, לא רלוונטי, בלתי הולם או לא הגיוני. הזיות יכולות לכלול גם יצירת קישורים לדפי אינטרנט שלא קיימים ומעולם לא היו קיימים. למידע נוסף, תוכלו לקרוא את המאמר כתיבת הנחיות טובות יותר ל-Gemini עבור Google Cloud.

  • איכות הנתונים והתאמה אישית האיכות, הדיוק וההטיה של נתוני ההנחיה שמוזנים ל-Gemini למוצרים של Google Cloudיכולים להשפיע באופן משמעותי על הביצועים שלו. אם המשתמשים מזינים הנחיות לא מדויקות או שגויות, יכול להיות שהתשובות של Gemini for Google Cloudיהיו לא אופטימליות או שגויות.

  • הגברת הטיה מודלים של שפה עלולים להגביר בטעות הטיות קיימות בנתוני האימון שלהם, וכתוצאה מכך להוביל לפלט שעלול לחזק עוד יותר את הדעות הקדומות בחברה ואת הטיפול הלא שוויוני בקבוצות מסוימות.

  • איכות השפה ל-Gemini for Google Cloudיש יכולות מרשימות בכמה שפות במדדי השוואה שבדקנו, אבל רוב מדדי השוואה שלנו (כולל כל הבדיקות של הצדק) הם באנגלית אמריקאית.

    מודלים בסיסיים של שפה עשויים לספק איכות שירות לא עקבית למשתמשים שונים. לדוגמה, יכול להיות יצירת הטקסט לא תהיה יעילה באותה מידה לגבי חלק מהדיאלקטים או מהניבים של השפה, כי הם מיוצגים באופן לא פרופורציונלי בנתוני האימון. יכול להיות שהביצועים יהיו נמוכים יותר בשפות שאינן אנגלית או בזנים של אנגלית עם ייצוג נמוך יותר.

  • יעדים להשגת הוגנות וקבוצות משנה ניתוחי הצדק של Google Research במודלים של Gemini לא מספקים תיאור מקיף של הסיכונים הפוטנציאליים השונים. לדוגמה, אנחנו מתמקדים בהטיות לפי מגדר, גזע, אתניות ודת, אבל מבצעים את הניתוח רק על הנתונים בשפה האנגלית האמריקאית ועל תוצאות המודל.

  • מומחיות מוגבלת בתחום המודלים של Gemini הוכשרו בטכנולוגיית Google Cloud , אבל יכול להיות שהם לא מספיק מעמיקים כדי לספק תשובות מדויקות ומפורטות בנושאים טכניים או מיוחדים מאוד, וכתוצאה מכך המידע שהם מספקים עשוי להיות שטחי או שגוי.

    כשמשתמשים בחלונית Gemini במסוף Google Cloud , ‏Gemini לא מודע להקשר של הסביבה הספציפית שלכם, ולכן הוא לא יכול לענות על שאלות כמו "מתי יצרתי מכונה וירטואלית בפעם האחרונה?"

    במקרים מסוימים, Gemini for Google Cloud שולח לפרמטר המודלים קטע ספציפי מההקשר כדי לקבל תשובה ספציפית להקשר. לדוגמה, כשאתם לוחצים על הלחצן הצעות לפתרון בעיות בדף השירות של דיווח על שגיאות.

סינון של תוכן מסוכן ורעיל ב-Gemini

ההנחיות והתשובות של Gemini for Google Cloud נבדקות מול רשימה מקיפה של מאפייני בטיחות שרלוונטיים לכל תרחיש שימוש. מאפייני הבטיחות האלה נועדו לסנן תוכן שמפר את מדיניות השימוש המקובל שלנו. אם הפלט נחשב מזיק, התגובה תיחסם.

המאמרים הבאים