Microsoft twierdzi, że w zeszłym roku wypuścił 30 odpowiedzialnych narzędzi AI

May 04 2024
W drugiej połowie 2023 roku firma powiększyła także zespół odpowiedzialny za sztuczną inteligencję z 350 do ponad 400 osób
Centrum doświadczeń Microsoft w Nowym Jorku.

W raporcie inauguracyjnym Microsoft podzielił się swoimi praktykami w zakresie odpowiedzialnej sztucznej inteligencji z ubiegłego roku, włączając w to wypuszczenie 30 odpowiedzialnych narzędzi AI, które posiadają ponad 100 funkcji wspierających sztuczną inteligencję opracowaną przez jej klientów.

powiązana zawartość

Pracownik twierdzi, że Microsoft Copilot generuje demony, gdy zostanie poproszony o podanie zdjęć dotyczących praw do aborcji
Google i Microsoft oferują marne 10 milionów dolarów na ochronę świata przed sztuczną inteligencją

Opracowany przez firmę raport dotyczący odpowiedzialnej przejrzystości sztucznej inteligencji koncentruje się na wysiłkach firmy mających na celu odpowiedzialne tworzenie, wspieranie i rozwijanie produktów sztucznej inteligencji i stanowi część zobowiązań firmy Microsoft po podpisaniu dobrowolnego porozumienia z Białym Domem w lipcu. Microsoft poinformował również, że w drugiej połowie ubiegłego roku powiększył swój odpowiedzialny zespół ds. sztucznej inteligencji z 350 do ponad 400 osób, co oznacza wzrost o 16,6%.

powiązana zawartość

Pracownik twierdzi, że Microsoft Copilot generuje demony, gdy zostanie poproszony o podanie zdjęć dotyczących praw do aborcji
Google i Microsoft oferują marne 10 milionów dolarów na ochronę świata przed sztuczną inteligencją
Ostrzeżenie! Microsoft chce, aby w przyszłości ChatGPT kontrolował roboty
Udział
Napisy na filmie obcojęzycznym
  • Wyłączony
  • język angielski
Udostępnij ten film
Facebook Twitter E-mail
Link do Reddita
Ostrzeżenie! Microsoft chce, aby w przyszłości ChatGPT kontrolował roboty

„Jako firma przodująca w badaniach i technologii nad sztuczną inteligencją, jesteśmy zaangażowani w dzielenie się naszymi praktykami ze społeczeństwem w miarę ich ewolucji” – stwierdzili Brad Smith, wiceprezes i prezes firmy Microsoft oraz Natasha Crampton, dyrektor odpowiedzialna za sztuczną inteligencję . oświadczenie . „Ten raport pozwala nam podzielić się naszymi praktykami związanymi z dojrzewaniem, zastanowić się nad tym, czego się nauczyliśmy, wytyczyć nasze cele, ponosić odpowiedzialność i zdobyć zaufanie opinii publicznej”.

Microsoft twierdzi, że jego odpowiedzialne narzędzia AI mają na celu „mapowanie i mierzenie zagrożeń związanych ze sztuczną inteligencją”, a następnie zarządzanie nimi za pomocą środków łagodzących, wykrywania i filtrowania w czasie rzeczywistym oraz ciągłego monitorowania. W lutym firma Microsoft udostępniła narzędzie do tworzenia zespołów o otwartym dostępie o nazwie Python Risk Identification Tool (PyRIT) dla generatywnej sztucznej inteligencji, które umożliwia specjalistom ds. bezpieczeństwa i inżynierom zajmującym się uczeniem maszynowym identyfikowanie zagrożeń w ich produktach generatywnej sztucznej inteligencji.

W listopadzie firma udostępniła zestaw narzędzi do oceny generatywnej sztucznej inteligencji w Azure AI Studio, w którym klienci firmy Microsoft tworzą własne modele generatywnej sztucznej inteligencji , dzięki czemu mogą oceniać swoje modele pod kątem podstawowych wskaźników jakości, w tym zasadności — czyli tego, jak dobrze wygenerowana odpowiedź modelu jest zgodna z jego materiał źródłowy . W marcu narzędzia te zostały rozszerzone, aby uwzględnić zagrożenia bezpieczeństwa, w tym treści nienawistne, brutalne, o charakterze seksualnym i samookaleczające się, a także metody jailbreakowania, takie jak natychmiastowe wstrzykiwanie , czyli wtedy, gdy model dużego języka (LLM) otrzymuje instrukcje, które mogą spowodować do wycieku poufnych informacji lub rozpowszechniania dezinformacji.

Pomimo tych wysiłków odpowiedzialny zespół Microsoftu ds. sztucznej inteligencji musiał w zeszłym roku stawić czoła licznym incydentom związanym z modelami sztucznej inteligencji. W marcu chatbot Copilot AI firmy Microsoft powiedział użytkownikowi, że „może nie masz po co żyć”, po tym, jak użytkownik, analityk danych w firmie Meta, zapytał Copilota, czy powinien „po prostu to wszystko zakończyć”. Microsoft stwierdził, że analityk danych próbował zmanipulować chatbota, aby generował niewłaściwe odpowiedzi, czemu zaprzeczył.

W październiku ubiegłego roku generator obrazów Bing firmy Microsoft umożliwiał użytkownikom generowanie zdjęć popularnych postaci, w tym Kirby'ego i Spongeboba, wlatujących samolotami do Bliźniaczych Wież . Po udostępnieniu w lutym ubiegłego roku chatbota Bing AI (poprzednika Copilot) użytkownikowi udało się nakłonić chatbota do powiedzenia „Heil Hitler ”.

„Nie ma mety dla odpowiedzialnej sztucznej inteligencji. I choć ten raport nie zawiera odpowiedzi na wszystkie pytania, staramy się dzielić się naszymi wnioskami na wczesnym etapie i często oraz angażować się w solidny dialog na temat odpowiedzialnych praktyk związanych ze sztuczną inteligencją” – napisali Smith i Crampton w raporcie.

Ta historia pierwotnie ukazała się w Quartz .