09.05.2024

Афінські новини

Новини українською мовою з Греції

ІІ визначав цілі для бомбардувань у секторі Газа


Повідомлення про те, що ізраїльські військові використовують неперевірену та невідому базу даних штучного інтелекту для визначення цілей своєї бомбардувальної кампанії в Газі, стривожило експертів з прав людини та технологій, які заявили, що це може бути прирівняно до “військових злочинів”.

Ізраїльсько-палестинське видання +972 Magazine та єврейське ЗМІ Local Call нещодавно повідомили, що ізраїльська армія ідентифікує тисячі палестинців як потенційні цілі для бомбардувань за допомогою системи цілевказівки зі штучним інтелектом під назвою Lavender.

“Ця база даних відповідає за складання списків загиблих до 37 000 цілей”– заявив у четвер кореспондент забороненого в Ізраїлі телеканалу “Аль-Джазіри” Рорі Чаландз, передаючи репортаж із окупованого Східного Єрусалиму.

Неназвані співробітники ізраїльської розвідки, які розмовляли зі ЗМІ, заявили, що похибка Лавендера становить близько 10%. “Але це не завадило ізраїльтянам використовувати її, щоб прискорити ідентифікацію найчастіше низькопоставлених членів ХАМАС у Газі та бомбити їх”, – сказав Чалландз.

Стає ясно, що ізраїльські військові “використовують неперевірені системи штучного інтелекту… для прийняття рішень про життя та смерть цивільних осіб, – сказав Al Jazeera Марк Оуен Джонс, доцент кафедри Близького Сходу та цифрових гуманітарних наук в Університеті Хаміда бін Халіфи. – Давайте прояснимо ситуацію: це геноцид, якому допомагає ІІ, і відтепер необхідно закликати до мораторію використання ІІ у війні”.

Ізраїльські видання повідомляють, що цей метод призвів до загибелі багатьох тисяч мирних жителів Гази. У четвер міністерство охорони здоров'я Гази заявило, що з 7 жовтня внаслідок ізраїльських атак загинули щонайменше 33 037 палестинців та 75 668 поранено.

Використання ІІ “порушує” гуманітарне право. “Люди, які взаємодіяли з базою даних ІІ, часто були просто гумовим штампом. Вони уважно вивчали цей список вбивств протягом 20 секунд, перш ніж ухвалити рішення про те, давати дозвіл на авіаудар чи ні”– сказав Чалландс.

У відповідь на розширену критику ізраїльські військові заявили, що їхні аналітики мають проводити “незалежні перевірки”, щоб переконатися, що виявлені цілі відповідають відповідним визначенням відповідно до міжнародного права та додаткових обмежень, встановлених їх силами. Вони спростували ідею про те, що технологія є “системою”, “Лише базою даних, метою якої є перехресне зіставлення розвідувальних джерел для отримання актуальних верств інформації про військових оперативників терористичних організацій”.

Але той факт, що кожного палестинського бійця, який був наміченою метою, припадало “від п'яти до десяти прийнятих він смертей серед цивільного населення”, показує, чому у Газі загинуло так багато мирних жителів, вважає Чалландс.

Професор Тобі Уолш, експерт із штучного інтелекту з Університету Нового Південного Уельсу в Сіднеї, каже, що вчені-юристи, швидше за все, стверджуватимуть, що використання штучного інтелекту для цілевказівки порушує міжнародне гуманітарне право. “З технічної точки зору ці останні новини показують, наскільки складно зберегти людський фактор, забезпечивши значний нагляд за системами ІІ, які жахливо та трагічно розпалюють війну”, – сказав він в інтерв'ю Al Jazeera.

Варто зазначити, що ймовірно військові, які використовували ІІ для визначення потенційних цілей із подібною похибкою, будуть 100% виправдані. Оскільки за словами офіційного представника Білого дому Джона Кірбі, вони не зафіксували ЖОДНОГО ІНЦИДЕНТАде Ізраїль порушив би міжнародне гуманітарне право! А значить, усе, що сталося під час війни в Газі, а також атака на посольство Ірану в Сирії – все це, з погляду США, абсолютно законно.

Не дарма говорять: Якщо джентльмен не може виграти за правилами, він їх змінює”.



Source link