정책 입안자: #AIhype의 방해 요소에 넘어가지 마세요.

Apr 02 2023
아래는 3월 28일 화요일 저녁에 같은 날 Future of Life 연구소에서 발표한 공개 서한에 대한 반응으로 내가 모은 트윗/투트 스레드의 약간 편집된 버전입니다. 좋아, 그래서 "거대한 AI 실험 일시 중지 [on]"를 요구하는 많은 AI 연구자들이 서명한 AI 서신이? #AIhype가 흘러나오고 있습니다.

아래는 3월 28일 화요일 저녁에 같은 날 Future of Life 연구소에서 발표한 공개 서한에 대한 반응으로 내가 모은 트윗/투트 스레드의 약간 편집된 버전입니다.

CC BY 2.0에 따라 라이센스가 부여된 Pamela의 사진

좋아, 그래서 "거대한 AI 실험 일시 중지 [on]"를 요구하는 많은 AI 연구자들이 서명한 AI 서신이? #AIhype 가 흘러나오고 있습니다 . 다음은 간단한 요약입니다.

편지는 여기에서 찾을 수 있습니다.https://futureoflife.org/open-letter/pause-giant-ai-experiments/

먼저 컨텍스트의 경우 URL? Future of Life Institute는 장기주의적 운영입니다. 컴퓨터 시뮬레이션 속에 사는 수십억 미래 존재의 행복을 극대화하는 데 집중하는 사람들이 있습니다.

일부 컨텍스트는 다음을 참조하세요.https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo

이것은 이미 이것이 어디에서 왔는지에 대해 알려줍니다. 이것은 엉망진창이 될 것입니다.

편지에 동의하는 몇 가지 사항이 있습니다. 진행하면서 그것들을 드렉에서 끌어내도록 노력하겠습니다. 그것으로 #AIhype 로 . "광범위한 연구[1]에서 알 수 있듯이 인간과 경쟁하는 지능을 갖춘 AI 시스템은 사회와 인류에 심각한 위험을 초래할 수 있습니다."로 시작합니다.

공개 서한의 스크린샷. 이것은 위의 링크에서 액세스할 수 있는 첫 번째 단락입니다.

각주 1은 Stochastic Parrots 로 시작하는 많은 논문을 가리킵니다 . 그러나 그 백서에서 우리는 그 백서에서 가상의 "인간 경쟁 지능을 갖춘 AI 시스템"에 대해 이야기하고 있지 않습니다. 우리는 큰 언어 모델에 대해 이야기하고 있습니다.

그리고 그 단락의 나머지 부분에 대해 말하자면, 예, AI 연구실은 통제 불능의 경쟁에 갇혀 있지만 아무도 "디지털 마인드"를 개발하지 않았으며 그 과정에 있지도 않습니다.

제작자가 #ChatGPT 등을 "안정적으로 제어"할 수 있습니까? 예, 그들은 쉽게 접근할 수 있는 비정보 출처로 설정하지 않음으로써 우리의 정보 생태계를 오염시킬 수 있습니다.

사람들이 이러한 시스템을 "이해"할 수 있습니까? 심층 신경망이 입력을 출력에 매핑하는 방법에 대한 열린 질문이 많이 있지만 AI 연구소가 교육 데이터, 모델 아키텍처 및 교육 체계에 대한 투명성을 제공했다면 연구에 훨씬 더 유리한 위치에 있을 것입니다.

다음 단락:

공개 서한의 두 번째 단락 스크린 캡션

일반적인 작업에서 인간 경쟁력이 있습니까? 각주 3은 무엇을 참조합니까? "Sparks paper"로 알려진 투기 소설 소설과 GPT4에 대한 OpenAI의 비기술적 광고 카피. ROFLMAO.

"불꽃" 종이에서 다음을 참조하십시오.
https://twitter.com/emilymbender/status/1638891855718002691?s=20

GPT-4 광고 문구에서 다음을 참조하세요.
https://twitter.com/emilymbender/status/1635697381244272640?s=20

소위 "AI" 작업의 "일반성"에 대해서는 다음을 참조하십시오. Raji et al. 2021. NeurIPS 2021 Track on Datasets and Benchmarks 의 AI and the Everything in the Whole Wide World Benchmark .

내 말은, 편지 작성자와 서명자가 "기계가 우리 정보 채널을 선전과 거짓으로 가득 채우도록 내버려 두어야 합니까?"라고 묻는 것이 기쁩니다. 그러나 그 이후의 질문은 이 물건을 만드는 사람들이 그것을 판매하도록 돕는 경첩이 없는 #AIhype일 뿐입니다.

좋아, AI 연구실 간의 휴전과 같은 일시 중지를 요청합니다. 인공 지능을 실제로 구축하고 있다고 생각하는 사람들은 인공 지능을 다음과 같이 생각할 것입니까?

공개 서한의 3번째 및 4번째 단락의 스크린 캡션

그냥 말하자: 우리는 2020년 후반에 전체 논문을 작성했습니다( Stochastic Parrots , 2021년에 출판됨). 위험을 고려하지 않고 더 큰 언어 모델로 머리를 뻗는 것은 나쁜 일이라고 지적했습니다. 그러나 위험과 피해는 "너무 강력한 AI"에 관한 것이 아닙니다.

대신: 그들은 사람들의 손에 권력 집중, 억압 시스템 재생산, 정보 생태계 파괴, 자연 생태계 파괴(에너지 자원의 낭비를 통한)에 관한 것입니다.

그런 다음 그들은 "AI 연구 및 개발은 오늘날의 강력한 최첨단 시스템을 보다 정확하고 안전하며 해석 가능하고 투명하고 강력하며 정렬되고 신뢰할 수 있으며 충실하게 만드는 데 다시 초점을 맞춰야 합니다."라고 말합니다.

어, 정확하고 투명하며 해석 가능합니다. 그들이 상상하는 것이 "안전하지 않다"에 따라 "안전"합니다. "Aligned"는 이상한 AGI 판타지의 코드워드입니다. 그리고 "충성"은 자율적이고 지각 있는 개체를 연상시킵니다. #AI하이프

이러한 정책 목표 중 일부는 의미가 있습니다.

연결문자 7번째 문단 화면캡처

예, 출처 및 워터마킹 시스템을 요구하는 규정이 있어야 합니다. (그리고 합성 텍스트, 이미지, 음성 등을 접했을 때 항상 분명해야 합니다.

예, 책임이 있어야 합니다. 하지만 그 책임은 분명히 사람과 기업에 있습니다. "AI로 인한 피해"는 이미 이러한 것들을 배치하기로 결정한 *사람*이 없는 것처럼 들립니다.

예, 강력한 공적 자금이 있어야 하지만 저는 "기술적 AI 안전 연구"보다 이러한 것들의 영향을 살펴보는 비 CS 분야를 우선시할 것입니다.

또한 "AI가 야기할 극적인 경제적, 정치적 혼란"도 있습니다. 어, 우리는 AI가 없습니다. 우리에게는 그것이 민주주의(및 환경)에 미치는 영향에 거의 신경을 쓰지 않고 가능한 한 최대의 $$를 만들려는 기업과 VC가 있습니다.

정책입안자: "안돼, 우리는 너무 강력한 것을 만들고 있어."라고 말하는 테크브로스의 환상에 시간을 낭비하지 마십시오. 대신 기업(및 정부)이 기술(및 "AI"의 내러티브)을 사용하여 권력을 집중하고 행사하는 방법을 연구하는 사람들의 말을 들어보십시오.

Ruha Benjamin, Meredith Broussard, Safiya Noble, Timnit Gebru, Sasha Costanza-Chock과 같은 뛰어난 학자와 Karen Hao 및 Billy Perrigo 와 같은 언론인의 작업부터 시작하십시오 .

업데이트 3/31/23: Stochastic Parrots 논문의 목록에 있는 저자들은 공개 서한에 대한 공동 성명을 발표했습니다 .