LLM의 무한 Babel 라이브러리
“' AI의 대부' 구글을 떠나 위험을 미리 경고하다 ”는 뉴욕 타임즈의 제목이다. LM이 오픈 소스가 아닌 경우 인류에 대한 위협인지 어떻게 알 수 있습니까? 실제로 무슨 일이 일어나고 있습니까? 언어 모델의 세계가 어떻게 변화 직전에 있는지.
오픈 소스 십자군에 대한 요구
얼마 전 GPT-4가 대중에게 공개되었는데 우리 모두 기술 보고서를 읽고 실망했다고 생각합니다.
최근 Nature는 문제를 해결했습니다 . 오픈 소스가 되려면 대규모 언어 모델 (LLM)이 필요합니다 .
대부분의 LLM은 공개되지 않은 독점적이며 어떤 데이터에 대해 교육을 받았는지 알 수 없습니다. 이로 인해 특히 편향과 관련하여 한계에 대해 검사 및 테스트할 수 없습니다.
또한 ChatGPT로 정보 및 코드를 공유하면 삼성에서 발견한 대로 유출 위험이 있습니다 . 일부 주에서 이러한 회사의 데이터 저장이 GDPR을 위반한다고 믿는 것은 말할 것도 없습니다 .
그렇기 때문에 LLM이 오픈 소스여야 하며 BLOOM 컨소시엄(학계 컨소시엄에서 개발한 170B 매개변수 LLM) 과 같은 새로운 LLM 개발에 더 많은 투자가 있어야 합니다 .
최근 몇 달 동안 이러한 LLM의 실제 기능과 인공 지능의 위험에 대한 선정주의가 자주 있었습니다. 연구원이 모델을 테스트할 수 없다면 모델의 기능을 실제로 평가할 수 없으며 위험 분석도 마찬가지입니다. 또한 오픈 소스 모델은 훨씬 더 투명하며 커뮤니티는 문제 행동의 원인을 식별하려고 시도할 수도 있습니다.
더욱이 그것은 학계의 요구가 아니라 AI에 의해 기관이 경고합니다. 유럽 연합은 요즘 LLM의 미래를 재구성할 수 있는 EU AI 법안에 대해 논의하고 있습니다. 동시에 백악관은 기술 CEO에게 AI의 위험을 제한하도록 압력을 가하고 있습니다. 따라서 오픈 소스는 실제로 언어 모델의 미래 요구 사항이 될 수 있습니다.
ChatGPT가 왜 좋은가요?
우리는 모두 ChatGPT에 대해 들었고 그것이 어떻게 혁신적으로 보였는지 들었습니다. 그러나 어떻게 훈련되었는가?
ChatGPT에 대해 알아야 할 모든 것을 제외한 모든 것ChatGPT가 LLM(정확히는 GPT 3.5)을 기반으로 훈련되었다는 사실부터 시작하겠습니다. 일반적으로 이러한 GPT 유사 언어 모델은 시퀀스의 다음 토큰 예측을 사용하여 학습됩니다 (토큰 w 시퀀스에서 모델은 다음 토큰 w+1을 예측해야 함).
모델은 일반적으로 변환기입니다. 입력을 시퀀스로 수신하는 인코더와 출력 시퀀스를 생성하는 디코더로 구성됩니다. 이 시스템의 핵심은 multi-head self-attention 으로, 모델이 시퀀스의 다양한 부분 간의 컨텍스트 및 종속성에 대한 정보를 학습할 수 있도록 합니다.
GPT-3 는 이 원칙(Generative Pre-training Transformer, GPT, 제품군의 다른 모델과 같음)으로 훈련되었지만 훨씬 더 많은 매개변수와 훨씬 더 많은 데이터(570GB 데이터 및 176B 매개변수)만 사용했습니다.
GPT3는 엄청난 능력을 가지고 있지만 텍스트를 생성할 때 종종 환각을 일으키고, 유용성이 부족하고, 해석할 수 없으며, 종종 편견을 포함합니다. 이는 모델이 사람처럼 텍스트를 생성하는 모델에서 기대하는 것과 일치하지 않음을 의미합니다.
GPT-3에서 ChatGPT를 어떻게 얻습니까?
이 프로세스는 RHLF( Reinforcement Learning from Human Feedback ) 라고 하며 이 문서의 작성자는 다음과 같이 설명했습니다.
여기서는 매우 일반적이고 간결하게 설명하겠습니다. 구체적으로 다음 세 단계로 구성됩니다.
- 지도 미세 조정은 LLM이 지도 정책(기본 모델 또는 SFT 모델)을 학습하도록 미세 조정하는 첫 번째 단계입니다.
- 사람의 선호도를 모방합니다 . 이 단계에서 주석 작성자는 기본 모델의 출력 세트에 투표해야 합니다. 이 선별된 데이터 세트는 새로운 모델인 보상 모델을 교육하는 데 사용됩니다.
- PPO(Proximal Policy Optimization) , 여기서 보상 모델은 SFT 모델을 미세 조정하고 정책 모델을 얻는 데 사용됩니다.
프로그래밍 코드에서 이미 미세 조정된 모델 GPT-3.5로 사용된 저자는 ChatGPT의 코드 기능도 설명합니다.
그러나 이제 이 단계는 지도 학습이기 때문에 정확하게 확장할 수 없습니다. 어쨌든 이렇게 얻은 모델은 아직 정렬되지 않았습니다.
주석 작성자는 그러한 응답이 얼마나 바람직한지에 따라(최악에서 최고까지) SFT 모델의 응답 범위를 기록했습니다. 이제 우리는 훨씬 더 큰 데이터 세트(10 x)를 가지고 있으며 선호도에 따라 순위를 매겨야 하는 새 모델에 대한 SFT 모델 응답을 제공합니다.
이 단계에서 모델은 데이터에 대한 일반적인 정책과 보상을 극대화하는 방법(출력의 순위를 매길 수 있을 때)을 학습합니다.
따라서 SFT 모델이 있고 가중치를 사용하여 새 PPO 모델을 초기화합니다. 이 모델은 근접 정책 최적화(PPO)를 사용하여 미세 조정됩니다.
즉, 강화 학습 알고리즘을 사용합니다. PPO 모델은 임의의 프롬프트를 수신하고 프롬프트에 응답한 후 페널티 또는 보상을 받습니다. 고전적인 Q-러닝 대신 여기에서 모델 정책이 각 응답으로 업데이트됩니다(모델은 정책에 대한 경험에서 직접 학습합니다).
또한 저자는 토큰별 Kullback-Leibler(KL) 패널티를 사용하여 모델의 응답 분포를 SFT 모델과 유사하게 만듭니다. RL을 사용하여 모델을 최적화하고 싶기 때문입니다(보상 모델로 인해). 그러나 1단계에서 학습한 내용(인간이 큐레이팅한 프롬프트)을 잊지 않기를 원하기 때문입니다.
마지막으로 모델은 유용성, 진실성 및 무해성이라는 세 가지 측면에서 평가됩니다. 결국, 이것들은 우리가 최적화하고 싶었던 바로 그 측면이었습니다.
흥미로운 점은 기존 벤치마크(질문 응답, 요약, 분류)에서 평가할 때 모델이 GPT-3보다 성능이 낮다는 것입니다. 이것은 정렬 비용입니다.
혁신적인 동물, 알파카
언급한 바와 같이 이러한 모델의 동작을 연구할 실제 필요성이 있으며 이는 오픈 소스인 경우에만 가능합니다. 반면에 RHLF를 사용하여 모든 LM을 정렬할 수 있습니다.
RHLF는 모델을 처음부터 훈련하는 것보다 훨씬 저렴하고 계산 집약적입니다. 반면에 주석자가 있어야 합니다(실제로 지침이 있는 데이터 세트가 필요함). 하지만 이러한 단계를 자동화할 수는 없습니까?
첫 번째 단계는 Self-instruct 였으며 , 이 2022년 기사에서 저자는 반자동 방법을 제안합니다. 실제로 일반적인 아이디어는 수동으로 작성된 일련의 지침으로 시작하는 것입니다. 이 지침 세트는 씨앗 역할을 하고 대부분의 NLP 작업이 다루어지도록 합니다.
그런 다음 모델이 175개의 명령어만으로 시작하여 데이터 세트(50k 명령어)를 생성하도록 했습니다. 그런 다음 데이터 세트는 명령 튜닝에 사용되었습니다.
방법에는 모델만 있으면 됩니다. ChatGPT는 OpenAI GPT-3.5 기반인데 더 작은 모델은 못 쓰나요? 반드시 100개 이상의 B 매개변수가 필요합니까?
대신 Stanford 연구원은 LLaMA와 특히 자체 명령 방법(OpenAI의 text-davinci-003을 사용하여 생성된 명령)에 따라 생성된 7B 버전 및 52K 명령을 사용했습니다. Alpaca의 진정한 가치는 저자가 파이프라인을 단순화하고 모든 학술 연구실에서 프로세스를 복제할 수 있는 방식으로 비용을 크게 절감했다는 것입니다( 이 저장소 에 있음 ). 실제로 언급된 바와 같이:
초기 실행에서 7B LLaMA 모델을 미세 조정하는 데 8개의 80GB A100에서 3시간이 걸렸으며 대부분의 클라우드 컴퓨팅 공급자에서 100달러 미만입니다. ( 출처 )
초기 모델 평가에서는 Alpaca가 GPT-3.5를 거의 잘하는 것으로 나타났습니다(경우에 따라 초과하기도 함). 이것이 20배 더 작은 모델이라는 점을 감안할 때 이것은 놀라운 것처럼 보일 수 있습니다. 반면에 모델은 일련의 입력에서 GPT처럼 작동합니다(따라서 훈련은 일종의 지식 추출 역할을 합니다). 반면 모델은 환각, 독성, 고정관념 등 일반적인 언어 모델과 동일한 한계를 가지고 있다.
그런 다음 Alpaca는 모든 학술 실험실이 자체 버전의 ChatGPT를 교육할 수 있음을 보여줍니다( 연구용으로만 사용 가능한 LLaMA 사용). 반면에 다른 모델을 사용하는 모든 회사는 자체 버전의 ChatGPT를 정렬하고 만들 수 있습니다. 또한 유사한 모델을 휴대폰 이나 라즈베리 파이 컴퓨터 에도 배포할 수 있습니다 .
저자는 데모를 공개했지만 보안상의 문제로 잠시 후 종료되었습니다 . 또한 LLaMA를 사용하고 모델 가중치에 액세스하려면 신청해야 했지만 며칠 후 모델이 온라인으로 유출되었습니다 .
LLM은 혁명의 경계에 있습니까?
ChatGPT가 출시된 지 몇 년이 된 것 같지만, 불과 몇 달 밖에 되지 않았습니다. 그때까지 우리는 멱법칙에 대해 이야기했습니다. 모델이 어떻게 더 많은 매개변수, 더 많은 데이터, 긴급 행동의 기원을 허용하기 위해 더 많은 훈련을 가져야 하는지에 대해 이야기했습니다.
이러한 아이디어는 언어 모델에 대한 일종의 무어의 법칙을 정의할 수 있다는 아이디어로 이어졌습니다 . 어떤 의미에서 최근 몇 년 동안 우리는 거의 기하급수적인 법칙을 보았습니다(GPT-2의 1.5B 매개변수에서 GPT-3의 175B 매개변수로 이동했습니다).
무엇이 바뀌었나요?
이 교리에 대한 첫 번째 타격은 친칠라 의 도래라고 할 수 있습니다 . DeepMind의 모델은 데이터 양뿐만 아니라 데이터 품질의 문제임을 보여주었습니다. 둘째, META의 LLaMA는 선별된 데이터 세트를 사용하는 더 작은 모델도 거대한 모델보다 더 나은 결과는 아니지만 비슷한 결과를 얻을 수 있음을 보여주었습니다.
모델만의 문제가 아닙니다. 데이터는 다른 문제입니다. 인간은 충분한 데이터를 생성하지 않으며, 전력법에서 요구하는 경우 GPT-5를 지원하기에 데이터가 충분하지 않을 수 있습니다. 둘째, 이전처럼 데이터에 액세스할 수 없습니다.
실제로 인기 있는 데이터 리소스인 Reddit은 AI 개발자가 콘텐츠에 액세스하려면 비용을 지불해야 한다고 발표했습니다. 심지어 Wikipedia도 같은 생각을 했고 이제 StackOverflow도 같은 방식으로 움직이고 있으며 기업이 비용을 지불해야 합니다.
Stack Overflow의 Chandrasekar는 "LLM에 연료를 공급하는 커뮤니티 플랫폼은 기여에 대해 절대적으로 보상을 받아야 합니다. 그래야 우리와 같은 회사가 커뮤니티에 다시 재투자하여 커뮤니티를 계속 번창시킬 수 있습니다."라고 말합니다. "우리는 Reddit의 접근 방식을 매우 지지합니다." ( 출처 )
그리고 데이터를 얻을 수 있다고 해도 기업 입장에서는 안전하지 않을 수 있습니다. Getty는 AI 예술 생성기를 고소했지만 아티스트 자신도 소송을 제기했습니다. 말할 것도 없이, 프로그래머는 리포지토리의 코드로 훈련된 GitHub Copilot으로 동일한 작업을 수행했습니다 . 또한 음악 산업(악명 높은 소송)은 AI가 생성한 음악에 반대하며 스트리밍 서비스에 반대했습니다. AI 회사라도 공정 사용에 호소 한다면 미래에도 데이터에 대해 동일한 액세스 권한을 갖게 된다는 것은 결코 기정 사실이 아닙니다.
고려해야 할 또 다른 요소가 있습니다. 이종 양식으로 모델을 확장하는 것 외에 변환기 아키텍처는 2017년 이후로 변경되지 않았습니다. 모든 언어 모델은 multi-head self-attention만 필요하고 그 이상은 필요하지 않다는 교리를 기반으로 합니다. 최근까지 Sam Altman은 아키텍처의 확장성이 AGI의 핵심이라고 확신했습니다. 그러나 그가 최근 MIT 행사 에서 말했듯 이 AGI의 핵심은 더 많은 계층과 더 많은 매개변수에 있지 않습니다.
변압기에는 명확한 제한이 있으며 환각, 독성 및 편견과 같은 LM에 반영됩니다. 현대 LLM은 비판적 사고를 할 수 없습니다. 일련의 생각과 신속한 엔지니어링과 같은 기술은 문제를 완화하기 위한 패치 역할을 합니다.
또한 다중 헤드 셀프 어텐션은 RNN에서 파생된 문제를 해결할 수 있고 상황 내 학습에 2차 비용이 있으므로 행동이 나타나도록 할 수 있는 것으로 나타났습니다. 최근에는 표현력을 잃지 않고 자기 주의를 비이차 주의 변형으로 대체할 수 없다는 것이 밝혀졌습니다. 그러나 Spike-GPT 및 하이에나 와 같은 작업은 self-attention을 기반으로 하지 않는 덜 비싼 대안이 존재하고 언어 모델 구성에서 비슷한 결과를 허용한다는 것을 보여줍니다.
또한 표시된 것처럼 RHLF를 사용하여 모델을 정렬하면 다양한 작업의 성능과 관련하여 비용이 발생합니다. 따라서 LM은 "전문가 모델"을 대체하지 않지만 미래에는 아마도 다른 모델의 오케스트레이터가 될 것입니다(예: HuggingGPT 에서 제안한 대로 ).
오픈 소스를 멈출 수 없으며 항상 승리하는 이유
MidJourney 또는 DALL-E가 더 좋습니까? 아마 말하기 어려울 것입니다. 확실한 것은 안정적인 확산이 승리하는 기술이라는 것입니다. 오픈 소스라는 사실에 의한 안정적인 확산은 많은 응용 프로그램을 낳았고 많은 파생 연구(ControlNet, 의료 영상용 합성 데이터, 뇌와 유사)에 대한 영감이 되었습니다.
커뮤니티의 작업을 통해 다양한 버전의 안정적인 확산이 개선되었으며 끝없는 변형이 있습니다. 반면에 DALL-E는 안정적인 확산을 기반으로 하는 대응물이 없는 어플리케이션은 없습니다(그러나 그 반대도 마찬가지입니다).
그렇다면 언어 모델에 대해서는 왜 같은 일이 일어나지 않았을까요?
지금까지 주요 문제는 언어 모델을 훈련하는 것이 금지된 작업이라는 것입니다. BigScience의 BLOOM은 실제로 거대한 컨소시엄입니다. 그러나 LLaMA는 훨씬 더 작은 모델이 100B 매개변수 이상의 괴물과 경쟁할 수 있음을 보여주었습니다. Alpaca는 적은 비용($1,000 미만의 총 비용)으로 LM 정렬을 수행할 수 있음을 보여주었습니다. 이것이 바로 Simon Willson이 “ 대형 언어 모델이 안정적인 확산 모멘트를 갖고 있습니다. ”
알파카부터 현재까지 오픈소스인 모델들이 많이 나왔습니다 . Stability AI 는 거대 기업과 경쟁하고 모두가 사용할 수 있는 여러 모델을 출시 했을 뿐만 아니라 다른 회사에서도 챗봇 및 모델을 출시했습니다. 불과 몇 주 만에 우리는 Dolly , HuggingChat , Koala 등을 보았습니다.
이제 언급된 모델 중 일부는 오픈 소스이지만 비상업적 용도로 사용됩니다. 학술 연구에 개방되어 있지만 이는 관심 있는 회사에서 악용할 수 없음을 의미합니다.
이것은 이야기의 일부일뿐입니다. 실제로 HuggingFace에는 쉽게 훈련할 수 있는 모델(모델, 데이터 세트 및 파이프라인)이 이미 있으며 현재까지 상업적으로 사용할 수 있는 여러 모델이 있습니다(현재까지 10개 이상 ).
오픈 소스 모델, 비공개 데이터 및 새로운 애플리케이션
Anthropic의 CEO인 Dario Amodei 는 세계의 더 큰 모델에서 OpenAI를 능가하기 위해 수십억 달러를 찾고 있습니다 . 그러나 나머지 세계는 다른 방향으로 움직이고 있습니다. 예를 들어, AI의 알려진 플레이어가 아닌 Bloomberg는 재무용 LLM을 출시했습니다 (재무 소스에서 3,630억 개의 토큰에 대해 훈련됨).
금융을 위해 LLM을 원하는 이유는 무엇입니까? ChatGPT만 사용하지 않는 이유는 무엇입니까?
Google MedPalm은 일반 모델이 특정 주제(이 경우 의학, 과학 등 기사의 데이터 세트)에 대해 미세 조정된 모델에 비해 성능이 좋지 않음을 보여주었습니다.
LLM을 미세 조정하는 것은 확실히 비용이 많이 듭니다. 특히 우리가 수 천억 개의 매개 변수를 가진 모델에 대해 이야기하는 경우. 더 작은 모델은 훨씬 저렴하지만 여전히 무관심하지는 않습니다. 오픈 소스인 META의 LLaMA는 이 문제를 부분적으로 해결했습니다. 사실, LLaMA-Adapter의 저자는 미세 조정을 위해 120만 개의 매개변수만 추가하면 된다는 것을 보여주었습니다 (훈련은 1시간도 채 걸리지 않았습니다).
LLaMA가 상업적으로 이용 가능하지 않은 것은 사실이지만, 이용 가능한 다른 많은 모델이 있습니다(소형에서 대형까지). 주어진 분야에서 분명히 성공적인 적용을 가능하게 하는 것은 데이터입니다.
삼성이 불쾌하게도 발견한 것처럼 회사 내부에서 ChatGPT를 사용하는 것은 위험합니다. ChatGPT가 이제 사람들이 채팅 기록을 비활성화하거나 데이터를 사용하여 모델을 훈련하는 것을 거부할 수 있도록 허용 하더라도 회사는 데이터를 양보하는 것이 위험하다고 생각할 것입니다.
많은 회사는 자체 기업 데이터에 대해 미세 조정되고 내부에 남아 있는 모델인 자체 챗봇을 교육하는 것이 가능하다고 생각할 것입니다. 결국 이 기술은 예산이 적은 회사에서도 사용할 수 있고 저렴합니다. 또한 저렴한 비용으로 새로운 데이터가 도착하거나 더 나은 오픈 소스 모델이 출시될 때 정기적으로 미세 조정할 수 있습니다. 이제 데이터를 보유한 회사는 훨씬 더 승인을 꺼릴 것입니다.
또한 양질의 데이터를 보유하는 것이 얼마나 중요한지 확인했습니다. 의료 및 기타 여러 분야의 데이터는 수집하기 어렵고(비싸고, 규제되고, 희소함) 데이터를 보유한 기업이 유리합니다. OpenAI는 예를 들어 의료 데이터를 수집하기 위해 수십억 달러를 지출할 수 있지만 비용 외에도 환자 모집에는 수년과 확립된 네트워크가 필요합니다. 현재 데이터가 있는 회사는 노출된 것을 저장할 수 있는 모델과 이러한 데이터를 공유하는 데 더 제한적일 것입니다.
또한 HuggingGPT 및 AudioGPT 와 같은 작업 은 LLM이 사용자가 전문가 모델(텍스트-이미지, 오디오 모델 등)과 상호 작용할 수 있는 인터페이스임을 보여줍니다. 지난 몇 년 동안 많은 회사에서 데이터 과학자를 고용하고 필요에 따라 다양한 전문 모델을 개발했습니다(약물 발견 및 설계를 위한 제약 회사 모델, 구성 요소 설계 및 예측 유지 관리를 위한 제조 회사 등). 따라서 이제 데이터 과학자는 LLM에게 이전에 훈련된 모델과 연결하도록 지시하고 내부 비기술 사용자가 텍스트 프롬프트를 통해 모델과 상호 작용할 수 있도록 할 수 있습니다.
이러한 시나리오를 가리키는 또 다른 요소는 생성 AI에 대한 규정이 명확하지 않다는 것입니다(예: Google은 저작권 침해를 두려워하여 생성 음악 모델을 공개하지 않음). 저작권 문제 외에도 책임에 대한 질문은 열려 있습니다. 따라서 많은 회사들이 기술을 내부화하고 앞으로 몇 달 안에 자체 AI 도우미를 만들 수 있습니다.
이별 생각
힌튼 박사는 사람들이 그에게 잠재적으로 위험한 기술을 어떻게 연구할 수 있는지 물으면 그는 미국의 원자폭탄 제조 노력을 이끈 로버트 오펜하이머를 이렇게 말했습니다. 어서 하세요.”
그는 더 이상 그렇게 말하지 않습니다. ( 출처 )
Hinton은 최근 인공 지능의 위험에 대해 논의해야 한다고 말했습니다. 하지만 폭탄이 블랙박스 안에 있다면 폭발의 위험을 연구할 수 없습니다. 이것이 모델이 오픈 소스가 되는 것이 점점 더 시급한 이유입니다.
LLM은 어쨌든 변화의 단계에 있습니다. 점점 더 큰 모델을 만드는 것은 지속 불가능하며 이전과 같은 이점을 제공하지 않습니다. 차세대 LLM의 미래는 데이터에 있으며 아마도 더 이상 자기 주의를 기반으로 하지 않는 새로운 아키텍처에 있을 것입니다.
그러나 데이터는 이전처럼 액세스할 수 없습니다. 회사는 액세스를 중단하기 시작했습니다. 마이크로소프트는 기업이 자체 버전의 ChatGPT를 만들 수 있도록 허용할 용의가 있다고 밝혔습니다 . 그러나 기업들은 회의적일 것이다.
일부 회사는 비즈니스를 두려워하고(ChatGPT는 이미 첫 번째 피해자를 주장한 것 같습니다 ), 다른 회사는 데이터 유출을 두려워합니다. 또는 단순히 기술이 마침내 거의 모든 회사의 손이 닿는 범위 내에 있으며 각 회사는 필요에 맞는 챗봇을 만들 것입니다.
결론적으로, 우리는 다양한 추세를 볼 수 있습니다(부분적으로는 이미 발생하고 있음).
- AI에 대한 점증하는 두려움이 오픈 소스 모델을 추진하고 있습니다.
- 이로 인해 오픈 소스 LLM 모델의 출판이 증가하고 있습니다. 결과적으로 더 작은 모델을 사용하고 정렬 비용을 줄일 수 있음을 보여줍니다.
- LLM 모델은 다양한 비즈니스에 위협이 되며 회사는 이러한 모델이 비즈니스를 위협할 수 있다고 우려합니다. 따라서 여러 회사가 데이터에 대한 액세스를 줄이거나 AI 회사에 지불을 요구하고 있습니다.
- 비용 절감, 경쟁에 대한 두려움, 독점 데이터에 대한 새로운 관련성 및 오픈 소스 모델의 새로운 가용성으로 인해 기업은 오픈 소스 모델을 사용하여 자체 데이터에 대해 자체 챗봇을 교육하고 있습니다.
이 흥미로운 것을 발견했다면:
내 다른 기사를 찾아볼 수 있고, 내가 기사를 게시할 때 알림을 받도록 구독 할 수도 있으며, Medium 회원이 되어 모든 스토리(비용 없이 적은 수익을 얻는 플랫폼의 제휴 링크)에 액세스할 수 있습니다. LinkedIn 에서 연결하거나 연락할 수도 있습니다 .
다음은 기계 학습, 인공 지능 등과 관련된 코드 및 많은 리소스를 수집할 계획인 내 GitHub 리포지토리에 대한 링크입니다.
또는 내 최근 기사 중 하나에 관심이 있을 수 있습니다.