Firma Microsoft namówiła armię amerykańską na wykorzystanie w bitwach platformy DALL-E platformy Azure OpenAI

Wersja generatora obrazów OpenAI na platformę Microsoft Azure, DALL-E , została przedstawiona jako narzędzie na polu bitwy dla Departamentu Obrony Stanów Zjednoczonych (DoD), jak pierwotnie poinformował The Intercept Wednesday. Z raportu wynika, że Microsoft przedstawił ofertę sprzedaży narzędzi Azure OpenAI w październiku 2023 r., prawdopodobnie mając nadzieję na wykorzystanie rosnącego zainteresowania amerykańskiej armii wykorzystaniem generatywnej sztucznej inteligencji w działaniach wojennych.
„Wykorzystywanie modeli DALL-E do tworzenia obrazów do szkolenia systemów zarządzania walką” – czytamy w treści prezentacji Microsoftu skierowanej do Departamentu Obrony, zgodnie z prezentacją uzyskaną przez The Intercept. Zdanie dotyczące potencjalnego zastosowania wojskowego DALL-E pojawia się na slajdzie zatytułowanym „Generatywna sztuczna inteligencja z danymi DoD” obok marki Microsoft.
Azure oferuje wiele narzędzi OpenAI, w tym DALL-E, dzięki partnerstwu Microsoftu z organizacją non-profit o wartości 10 miliardów dolarów . Jeśli chodzi o zastosowania wojskowe, Microsoft Azure ma tę zaletę, że nie jest przywiązany do nieznośnej, nadrzędnej misji OpenAI : „zapewnienia korzyści całej ludzkości ze sztucznej inteligencji”. Zasady OpenAI zabraniają korzystania z jej usług w celu „ szkodzenia innym ” lub wykorzystywania oprogramowania szpiegującego. Jednak według rzecznika Microsoftu Microsoft oferuje narzędzia OpenAI pod swoim parasolem korporacyjnym, gdzie od dziesięcioleci współpracuje z siłami zbrojnymi.
„To przykład potencjalnych przypadków użycia, który powstał na podstawie rozmów z klientami na temat możliwości wykorzystania generatywnej sztucznej inteligencji” – oznajmił rzecznik Microsoftu w e-mailu odpowiadającym na prezentację.
Tylko w zeszłym roku OpenAI (nie Azure OpenAI) zabroniło używania swoich narzędzi do „wojskowych i wojennych” oraz „rozwoju broni”, jak udokumentowano w Internet Archive . Jednak OpenAI po cichu usunął wiersz ze swoich uniwersalnych zasad w styczniu 2024 r., co zostało po raz pierwszy zauważone przez The Intercept . Zaledwie kilka dni później wiceprezes OpenAI ds. spraw globalnych, Anna Makanju, powiedziała Bloombergowi, że rozpoczyna współpracę z Pentagonem . OpenAI zauważyło wówczas, że kilka przypadków użycia w zakresie bezpieczeństwa narodowego jest zgodnych z jego misją.
„Zasady OpenAI zabraniają używania naszych narzędzi do opracowywania lub używania broni, ranienia innych lub niszczenia mienia” – oznajmił w e-mailu rzecznik OpenAI. „Nie byliśmy zaangażowani w tę prezentację i nie odbyliśmy rozmów z amerykańskimi agencjami obrony na temat hipotetycznych przypadków użycia, które opisuje”.
Wydaje się, że rządy na całym świecie postrzegają sztuczną inteligencję jako przyszłość działań wojennych. Niedawno dowiedzieliśmy się, że Izrael korzystał z systemu sztucznej inteligencji o nazwie Lavender do tworzenia „listy zabójstw” obejmującej 37 000 osób w Gazie, o czym pierwotnie poinformował magazyn +972 . Według Bloomberga od lipca ubiegłego roku amerykańscy wojskowi eksperymentują z dużymi modelami językowymi do zadań wojskowych .
Branża technologiczna niewątpliwie dostrzegła tę ogromną szansę finansową. Były dyrektor generalny Google, Eric Schmidt, buduje drony kamikadze AI w ramach firmy o nazwie White Stork . Schmidt od lat łączy technologię i Pentagon i przewodzi wysiłkom na rzecz wykorzystania sztucznej inteligencji na linii frontu.
Technologię od dawna wspiera Pentagon, począwszy od pierwszych chipów półprzewodnikowych w latach pięćdziesiątych XX wieku, nic więc dziwnego, że sztuczna inteligencja jest traktowana w ten sam sposób. Chociaż cele OpenAI wydają się wzniosłe i pokojowe, partnerstwo z Microsoftem pozwala mu je zaciemnić i sprzedać swoją wiodącą na świecie sztuczną inteligencję amerykańskiej armii.

