논문 하나가 만든 Loud 세상...
'Attention All You Need'는 ultra가 stayloudio 출시를 앞두고 트위터에 공유했던 논문 제목임...
이 논문은 구글 브레인 팀의 Ashish Vaswani 등 8명이 2017년 발표한 것으로, 'Transformer'라는 딥러닝 아키텍처를 처음 제안한 논문임.
나도 잘은 모르지만... 쉽게 요약하면, '어텐션 메커니즘' 하나만으로도 문맥 이해와 예측이 가능하다는 걸 보여줬음...
어텐션은 문장 안에서 단어와 단어의 관계를 파악해 중요한 위치에 더 많은 가중치를 주는 방식임...
이 어텐션을 차용해 Kaito는 Web3에서 '관심만으로 가치를 만들 수 있다'는 상징적 메시지를 담았다고 보면 되며, 그걸 입증하고 있음.
논문 - Kaito - Loud의 연결 고리를 정리해보면...
1) 논문은 KaitoAI가 쓰는 기술, 철학적 기반임. (kaito 검색, 요약 엔진이 Transformer 계열)
2) Loud는 Kaito 위에 온보딩되어 Kaito가 계산한 마인드쉐어를 loud 보상에 활용함.
3) Loud로 인해 발생한 데이터는 Kaito의 데이터 레이크로 들어가 AI 모델 학습에 사용됨.
즉,
Transformer → Kaito AI → Loud → 새로운 어텐션 데이터 → Kaito AI 강화
로 이어지는 순환 구조임...
https://x.com/dori_coin/status/1928363995586777368

88
1시간 전