Google נתקלה בביקורת ציבורית לאחר שהודתה כי איבדה שליטה על מודל ה-AI שלה, Gemini, שנוצר כדי לייצר תמונות מנתוני טקסט שהוזנו על ידי המשתמשים. הביקורת התמקדה בייצור תמונות היסטוריות לא מדויקות, כמו למשל, הצגת האבות המייסדים של ארצות הברית כקבוצה רב-תרבותית, כולל אנשי אפרואמריקאים ואינדיאנים, דבר שנתפס כשגוי ומביך. כמו כן, המודל הפיק תמונות של נאצים רב-גזעיים, מה שהוביל להשעיית המודל זמנית מלייצר תמונות של אנשים עד שיתוקנו הבעיות.
Google הסבירה כי הבעיה נבעה מכוונון לא מדויק של ה-AI, שנועד להציג מגוון רחב יותר של אנשים בתמונות, אך לא נלקחו בחשבון מקרים בהם מגוון כזה אינו רלוונטי. החברה הודתה שהמודל הפך להיות זהיר יתר על המידה ודחה כמה בקשות באופן שגוי, ובכך יצר תוצאות שהיו "מביכות ושגויות".
בעקבות הביקורת, Google הודתה על השגיאות והבטיחה לשפר את המודל לפני שחזרתו לפעילות. החברה הדגישה את האתגרים הכרוכים בפיתוח טכנולוגיות AI רבות-גוניות ואת הצורך להיות זהירים בטיפול בנתונים היסטוריים ותרבותיים.
המקרה מדגיש את האתגרים המורכבים הכרוכים בפיתוח ובכוונון של טכנולוגיות בינה מלאכותית, במיוחד כאשר מדובר ביצירת תמונות שמשקפות מגוון תרבותי והיסטורי. הסיפור מצביע גם על החשיבות של שקיפות ואחריות מצד חברות טכנולוגיה גדולות בעת פיתוח ושימוש בכלים אלו.