newsroom 1/21 '22 posted
에 대해 자세히 알아봅니다. 이 경쟁은 여러 종류의 데이터를 처리할 수 있는 하나의 신경망을 만들기 위한 것입니다. 즉, 데이터 유형을 구별하지 않고 대신 동일한 기본 구조 내에서 모든 데이터를 처리할 수 있는 보다 일반적인 인공지능입니다. 이러한 신경망이라고 불리는 다중 모드( multi-modality) 장르는 이미지, 텍스트, 음성 오디오와 같은 서로 다른 데이터를 동일한 알고리즘을 통해 전달하여 이미지 인식, 자연어 이해 또는 음성 감지와 같은 서로 다른 테스트에서 점수를 생성하는 활동이 급증하고 있습니다. 

• 인공지능은 완전히 익숙하지 않은 일들을 포함하여 많은 다른 일들을 하는 것을 배울 수 있어야 합니다."
• 메타의 CEO인 마크 저커버그는 이 작품과 미래의 메타버스와의 연관성에 대해 다음과 같이 인용했습니다. 사람들은 시각, 소리, 말의 조합을 통해 세상을 경험하는데, 이런 시스템은 언젠가 우리가 하는 방식으로 세상을 이해할 수 있을 것입니다.
• "사람들은 시각이나 소리를 사용하든 어떻게 정보를 얻든 상관없이 비슷한 방식으로 학습하는 것처럼 보이지만, 현재 자기 지도 학습 알고리즘이 이미지, 음성, 텍스트 및 다른 양식으로부터 학습하는 방식에는 큰 차이가 있습니다."라고 블로그 게시물은 말합니다.
• "data2vec: 음성, 비전 및 언어의 자기 지도 학습을 위한 일반적인 프레임워크"라는 공식 논문에서, Baevski 등은 다음과 같이 말했습니다.
• 이것은 결국 AI 비서와 함께 AR 안경에 모두 내장되어, 예를 들어, 여러분이 재료를 놓치면 알아차리고, 불을 줄이거나, 더 복잡한 작업을 하도록 유도하면서, 여러분이 저녁을 요리하는 데 도움을 줄 수 있습니다.


Yahoo [techcrunch.com]
MIT Technology Review [www.technologyreview.com]



Open Wiki - Feel free to edit it. -
1/21 '22 answered



permanent link
Open Wiki - Feel free to edit it. -
1/22 '22 answered



permanent link