Microsoft twierdzi, że w zeszłym roku wypuścił 30 odpowiedzialnych narzędzi AI

W raporcie inauguracyjnym Microsoft podzielił się swoimi praktykami w zakresie odpowiedzialnej sztucznej inteligencji z ubiegłego roku, włączając w to wypuszczenie 30 odpowiedzialnych narzędzi AI, które posiadają ponad 100 funkcji wspierających sztuczną inteligencję opracowaną przez jej klientów.
powiązana zawartość
Opracowany przez firmę raport dotyczący odpowiedzialnej przejrzystości sztucznej inteligencji koncentruje się na wysiłkach firmy mających na celu odpowiedzialne tworzenie, wspieranie i rozwijanie produktów sztucznej inteligencji i stanowi część zobowiązań firmy Microsoft po podpisaniu dobrowolnego porozumienia z Białym Domem w lipcu. Microsoft poinformował również, że w drugiej połowie ubiegłego roku powiększył swój odpowiedzialny zespół ds. sztucznej inteligencji z 350 do ponad 400 osób, co oznacza wzrost o 16,6%.
powiązana zawartość
- Wyłączony
- język angielski
„Jako firma przodująca w badaniach i technologii nad sztuczną inteligencją, jesteśmy zaangażowani w dzielenie się naszymi praktykami ze społeczeństwem w miarę ich ewolucji” – stwierdzili Brad Smith, wiceprezes i prezes firmy Microsoft oraz Natasha Crampton, dyrektor odpowiedzialna za sztuczną inteligencję . oświadczenie . „Ten raport pozwala nam podzielić się naszymi praktykami związanymi z dojrzewaniem, zastanowić się nad tym, czego się nauczyliśmy, wytyczyć nasze cele, ponosić odpowiedzialność i zdobyć zaufanie opinii publicznej”.
Microsoft twierdzi, że jego odpowiedzialne narzędzia AI mają na celu „mapowanie i mierzenie zagrożeń związanych ze sztuczną inteligencją”, a następnie zarządzanie nimi za pomocą środków łagodzących, wykrywania i filtrowania w czasie rzeczywistym oraz ciągłego monitorowania. W lutym firma Microsoft udostępniła narzędzie do tworzenia zespołów o otwartym dostępie o nazwie Python Risk Identification Tool (PyRIT) dla generatywnej sztucznej inteligencji, które umożliwia specjalistom ds. bezpieczeństwa i inżynierom zajmującym się uczeniem maszynowym identyfikowanie zagrożeń w ich produktach generatywnej sztucznej inteligencji.
W listopadzie firma udostępniła zestaw narzędzi do oceny generatywnej sztucznej inteligencji w Azure AI Studio, w którym klienci firmy Microsoft tworzą własne modele generatywnej sztucznej inteligencji , dzięki czemu mogą oceniać swoje modele pod kątem podstawowych wskaźników jakości, w tym zasadności — czyli tego, jak dobrze wygenerowana odpowiedź modelu jest zgodna z jego materiał źródłowy . W marcu narzędzia te zostały rozszerzone, aby uwzględnić zagrożenia bezpieczeństwa, w tym treści nienawistne, brutalne, o charakterze seksualnym i samookaleczające się, a także metody jailbreakowania, takie jak natychmiastowe wstrzykiwanie , czyli wtedy, gdy model dużego języka (LLM) otrzymuje instrukcje, które mogą spowodować do wycieku poufnych informacji lub rozpowszechniania dezinformacji.
Pomimo tych wysiłków odpowiedzialny zespół Microsoftu ds. sztucznej inteligencji musiał w zeszłym roku stawić czoła licznym incydentom związanym z modelami sztucznej inteligencji. W marcu chatbot Copilot AI firmy Microsoft powiedział użytkownikowi, że „może nie masz po co żyć”, po tym, jak użytkownik, analityk danych w firmie Meta, zapytał Copilota, czy powinien „po prostu to wszystko zakończyć”. Microsoft stwierdził, że analityk danych próbował zmanipulować chatbota, aby generował niewłaściwe odpowiedzi, czemu zaprzeczył.
W październiku ubiegłego roku generator obrazów Bing firmy Microsoft umożliwiał użytkownikom generowanie zdjęć popularnych postaci, w tym Kirby'ego i Spongeboba, wlatujących samolotami do Bliźniaczych Wież . Po udostępnieniu w lutym ubiegłego roku chatbota Bing AI (poprzednika Copilot) użytkownikowi udało się nakłonić chatbota do powiedzenia „Heil Hitler ”.
„Nie ma mety dla odpowiedzialnej sztucznej inteligencji. I choć ten raport nie zawiera odpowiedzi na wszystkie pytania, staramy się dzielić się naszymi wnioskami na wczesnym etapie i często oraz angażować się w solidny dialog na temat odpowiedzialnych praktyk związanych ze sztuczną inteligencją” – napisali Smith i Crampton w raporcie.
Ta historia pierwotnie ukazała się w Quartz .

