09/05/2024

Athens News

Новини на български от Гърция

AI идентифицира цели за бомбардировки в ивицата Газа


Доклад, че израелската армия използва непроверена и неизвестна база данни с изкуствен интелект, за да идентифицира цели в своята бомбардировъчна кампания в Газа, разтревожи експерти по правата на човека и технологиите, които казват, че това може да се равнява на „военни престъпления“.

Израелско-палестинското издание +972 Magazine и еврейското медийно издание Local Call наскоро съобщиха, че израелската армия идентифицира хиляди палестинци като потенциални цели за бомбардировки, използвайки система за насочване с изкуствен интелект, наречена Lavender.

„Тази база данни е отговорна за съставянето на списъци на смъртните случаи за до 37 000 цели.“– каза Рори Чаландз, кореспондент на забранения в Израел телевизионен канал Ал-Джазира, в четвъртък, репортаж от окупирания Източен Ерусалим.

Неназовани представители на израелското разузнаване, които говориха с медиите, казаха, че допустимата грешка на Lavender е около 10%. „Но това не попречи на израелците да го използват, за да ускорят идентифицирането на често нископоставени членове на Хамас в Газа и да ги бомбардират.“ – каза Шаланд.

Става ясно, че израелските военни „използвайте непроверени системи за изкуствен интелект… за вземане на решения относно живота и смъртта на цивилни, Марк Оуен Джоунс, доцент по Близкоизточни изследвания и дигитални хуманитарни науки в университета Хамид Бин Халифа, каза пред Ал Джазира. – Нека бъдем ясни: това е геноцид, подпомаган от ИИ, и сега трябва да призовем за мораториум върху използването на ИИ във война.

Израелските медии съобщават, че този метод е довел до смъртта на много от хилядите цивилни жители на Газа. В четвъртък здравното министерство на Газа заяви, че от 7 октомври в резултат на израелски атаки умря поне 33 037 палестинци и 75 668 ранени.

Използването на AI „нарушава“ хуманитарното право. „Хората, които взаимодействаха с базата данни с изкуствен интелект, често бяха само гумен печат. Те разглеждаха внимателно този списък с убийства в продължение на 20 секунди, преди да решат дали да разрешат въздушен удар или не.“каза Чаландс.

В отговор на разширената критика израелската армия каза, че нейните анализатори трябва да проведат „независими проверки“ да гарантират, че идентифицираните цели отговарят на съответните определения съгласно международното право и допълнителните ограничения, наложени от техните сили. Те опровергаха идеята, че технологията е „система“ „просто база данни, чиято цел е да сравнява източниците на разузнаване, за да получи актуални слоеве информация за военни оперативни лица на терористични организации.“

Но фактът, че за всеки палестински боец, който беше предвидената цел, имаше „пет до десет предполагаеми цивилни смъртни случая“ показва защо Толкова много цивилни са загинали в Газа, казва Challands.

Професор Тоби Уолш, експерт по изкуствен интелект в Университета на Нов Южен Уелс в Сидни, казва, че правните учени вероятно ще твърдят, че използването на изкуствен интелект за насочване нарушава международното хуманитарно право. „От техническа гледна точка, тези последни новини показват колко трудно е да се запази човешкият елемент, като същевременно се осигури смислен надзор на системите с изкуствен интелект, които ужасно и трагично подхранват войната.“ – каза той в интервю за Ал Джазира.

Струва си да се отбележи, че военните вероятно биха били 100% оправдани да използват AI за идентифициране на потенциални цели с такава грешка. Тъй като, според говорителя на Белия дом Джон Кърби, те не са записали НИТО ЕДИН ИНЦИДЕНТкъдето Израел би нарушил международното хуманитарно право! Това означава, че всичко, което се случи по време на войната в Газа, както и атаката срещу иранското посолство в Сирия – всичко това от гледна точка на САЩ е абсолютно законно.

Нищо чудно, че казват: Ако джентълмен не може да спечели по правилата, той ги променя“.



Source link

Verified by MonsterInsights