האם AI יכול לעזור להפוך את המשחקים המקוונים פחות רעילים? כך זה יכול להפוך את המשחקים לגישה יותר

תמיד הייתה רמה מסוימת שלאבל בשנים האחרונות זה התפתח מעבר לשיחות זבל שובב. הרעילות מציפה כעת את הצ'אט הקולי והלובי, מה שהופך את מרבית המשחקים המרובי משתתפים לחוויות מלחיצות ועוינות.

שיטות שונות ניסו על ידי מפרסמי המשחקים לטפל בבעיה, וכעת, בינה מלאכותית (AI) יכולה להיות הכלי לקהילה כוללת יותר.

הבעיה ההולכת וגוברת של רעילות במשחקים מקוונים

התנתקות בשנגחאי

דיבור אשפההיה פעם חלק מהנה מהמשחק, במיוחד למשחקי שיתוף פעולה עם ספה עם חברים. ידעת מתי לסגת, ואף אחד לא היה אישי מדי. עם זאת, המשחקים המקוונים ביצעה את המים האלה. ללא אחריות פנים אל פנים של חבר שיושב לידך, שחקנים נוטים לקחת את התוקפנות שלהם עד קיצון.

משחקים כמו "Call of Duty" ו- "Callorant" הפכו לשם נרדף לא רק במשחק תחרותי אלא עם שדולות רעילות מלאות בהשמצות, הטרדה ואפילו איומים.

א2022 מחקרהערכה "Call of Duty" כאחת מקהילות המשחקים הרעילות ביותר. סביבה כזו מרחיקה את השחקנים החדשים, ומגניבה מעריצים פוטנציאליים לפני שהם אפילו נכנסו למשחק.

אסטרטגיית ה- AI של Activision נגד שחקנים רעילים

Activision, המו"ל העומד מאחורי "Call of Duty", ראה את הבעיה ממקור ראשון. כלי המתינות הישנים שלהם לא הספיקו כדי לעמוד בקצב. דיווח ואכיפה ידניים היו איטיים, לא עקביים ולעתים קרובות לא יעילים.

הנה באTOXMOD,כלי AI של מתינות קולית שנוצר על ידי modulation.ai. שלא כמו מנגנוני דוח מסורתיים, ToxMod סורק באופן פעיל צ'אטים קוליים בזמן אמת. זה מקשיב לשפה פוגענית, דיבור שנאה וטון אגרסיבי, מסתמך על ניפוחים קוליים ורמזים רגשיים כדי להחליט אם מישהו חוצה את הקו.

אם ה- AI מזהה התנהגות רעילה, הוא יכול לשלוח אזהרות, לסמן את המשתמש ולשלוח יומני קול מפורטים למנחים אנושיים. היומנים הם גם קטעי שמע וגם תמלילי דיוק משופרים ואכיפה הוגנת.

איך ToxMod פועל במשחקים בעולם האמיתי

מתינות ה- AI Voice של ToxMod כבר ראתה יישום במשחקים המובילים כמו:

  • "Call of Duty: לוחמה מודרנית III"
  • "Call of Duty: Warzone"
  • "בינינו" Vr
  • "GTA Online" (סוף 2023 בדיקות בטא החלו)

בִּתְנָאוּת, "ToxMod פועל ברקע ואינו מפריע למשחק. שחקנים כבר לא צריכים להשהות באמצע משחק כדי לדווח על מישהו. עכשיו, ה- AI עושה את המסמן להתנהגות רעילה, מה שמאפשר לשחקנים להתרכז במשחק.

כפי שדווח על ידי Activision, הכלי הביא להפחתה של 50% בצ'אט הקולי הרעיל בצפון אמריקה, ירידה של 25% בהתנהגות השלילית הכוללת, וירידה של 8% בעבריינים חוזרים, מעודדת נתונים סטטיסטיים המשקפים את יעילות המערכת.

מה נחשב להתנהגות רעילה?

ToxMod אינו תלוי במילים קללות או בהשמצות בלבד. הוא בוחן טון, דפוסי דיבור ותגובת שחקנים כדי לקבוע אם התגובה פוגעת או רעילה.

באופן חיוני, זה לא לגמרי אוטומטי. למרות ש- ToxMod מדגיש עבירות פוטנציאליות, למנחים אנושיים יש את האמירה הסופית. מערכת זו נמנעת מאיסורים פסולים, במיוחד כאשר משתמשים במבטאים אזוריים או בנטרות במשחק מחוץ להקשר.

יש גיימרים שעדיין אינם בטוחים. ישנם חששות לפרטיות, במיוחד כאשר ה- AI הוא כל הזמן מצותת. אחרים מודאגים שהם עשויים להיות מסומנים באופן שגוי או נענש על שיחת אשפה תמימה.

אך מכיוון שהסקירה האנושית עדיין נמצאת על השולחן, הסכנה של שימוש לרעה ב- AI די נמוכה. Activision הבטיחה כי המתינות אינה מונעת AI באופן מלא-היא נבדקת על הגינות.