Ігрова індустрія зростає і набуває серйозної конкуренції. Вона вартує 187,7 мільярда доларів – це більше, ніж уся музика, кіно та розваги на вимогу разом узяті, і налічує 3,4 мільярда геймерів по всьому світу. І поки гравці спілкуються і стають більш залученими в ігрову спільноту, зростають і ризики, з якими їм доводиться стикатися. Оскільки онлайн-ігри це новий соціальний простір, який постійно зростає, необхідно враховувати безліч факторів:
-
Традиційні системи модерації, засновані на людському факторі, можуть потребувати допомоги, щоб впоратися з мільйонами користувачів.
-
Користувацький контент (UGC) включає в себе 3D-моделі, сценарії рівнів, озвучку і відеочати.
-
Величезна кількість користувацького контенту ускладнює процес його модерації.
-
Нове законодавство створює додаткові труднощі в управлінні онлайн-платформами.
Видавці ігор витрачають безліч коштів на захист своїх користувачів від шкідливого контенту і на захист зростаючого ігрового ринку з величезною кількістю користувацького контенту. Ігровим компаніям потрібна допомога, щоб знайти баланс між забезпеченням нового покоління підключених ігор і законодавством, що захищає споживачів.
Саме тут на допомогу приходять послуги з модерації контенту. Такі послуги є чудовим варіантом для розробників ігор, що дає змогу сформулювати й реалізувати продуманий план безпеки, щоб гарантувати безпеку онлайн-спільноти, не обмежуючи при цьому активність і уяву.
Створення ідеальної платформи довіри та безпеки
Продумуючи вимоги до ідеальної довіри й безпеки при створенні ігор, ваш інструмент модерації контенту повинен бути розроблений з урахуванням вибору на основі даних, безпеки модераторів і пропускної спроможності контенту. Цей інструмент повинен враховувати різні політики щодо продуктів і толерантності до контенту, оскільки він збирає дані з декількох джерел і аналізує їх. Існує п'ять основних компонентів платформи для модерації контенту, які вам необхідно взяти до уваги:
-
Правила та рекомендації: Спільнота керує роботою платформи.
-
Автоматизований процес модерації: Цей процес автоматизує і позначає вхідний контент як образливий за допомогою штучного інтелекту (ШІ), оптимізує робочий процес модерації та зменшує (або повністю виключає) присутність людини в контенті.
-
Людські модератори: Для іменування, перевірки та усунення крайніх випадків, як і раніше, потрібні люди, навіть на найвищому рівні компанії.
-
Аналітика: Забезпечує контекст контенту і надає показники продуктивності й точності.
-
Управління системою: Місце, де ви будете керувати й налаштовувати всю систему та отримувати оперативні дані.
Ігровий оператор, виходячи з того, як він реалізує ці основні функції, може бути віднесений до одного з трьох рівнів довіри та безпеки:
-
Початковий: Суттєва людська модерація, відсутність механізму виявлення небезпечних повідомлень, необхідність оновлення політик і правил, велика кількість образливих повідомлень.
-
Середній: Прості платформи розпізнавання ШІ та поміркована політика спільноти.
-
Просунутий: Корпоративний сайт і добре опрацьовані правила, величезні команди модераторів, інвестиції в навчені моделі ШІ та видалення найбільш небезпечних матеріалів до того, як їх побачить хтось (або, якщо можливо, більшість користувачів).
Сила штучного інтелекту і людський фактор
Зі зростанням популярності користувацького контенту ШІ став відігравати важливу роль у модерації ігрових компаній, але він не може модерувати самостійно – йому потрібні закони та прецеденти. Організаціям слід впроваджувати на платформі комбінацію людської та штучної модерації для більш передбачуваного та ефективного обслуговування. За відсутності перерахованих вище компонентів або інших обмежень оператори-люди повинні втручатися в роботу системи, явно позначаючи проступки або приймаючи рішення вручну. На цьому етапі корисно переконатися, що люди не будуть повторювати перегляд жорстоких зображень.
Для розв'язання цієї проблеми можна використовувати рішення на основі штучного інтелекту, але організаціям, ймовірно, доведеться доопрацювати ці варіанти з відкритим вихідним кодом, щоб дійти до цієї стадії деталізації. Можна використовувати ШІ для поліпшення метаданих, щоб люди могли приймати більш правильні рішення і не отримувати графічні дані. Алгоритми цих рішень повинні безпечно доводити контент до найрелевантнішого людського агента, щоб збалансувати швидкість модерації та точність.
Заглядаючи в майбутнє
Ігри в Інтернеті дають змогу гравцям і спільнотам формувати довготривалий досвід, що запам'ятовується, коли фізичний контакт не завжди можливий. Однак наївність на онлайн-форумах може бути небезпечною. Важко знайти баланс між створенням користувацького контенту та його безпекою для всіх. Розробникам ігор доводиться вирішувати ще більш складне завдання, ніж отримання задоволення: захищати своїх користувачів від шкідливого контенту. Якщо у нас є сильні керівні принципи спільноти та моральний ШІ, платформа для модерації контенту може допомогти забезпечити безпечне середовище для всіх.