ment 3/7 '19 posted

• 신경망 내부에서 일어나는 일을 이해하는 것은 단지 과학적 호기심에 대한 문제 만은 아닙니다. 우리가 이해하지 못함으로 인해 신경 네트워크를 감사하는 능력을 잃고, 이해 관계가 큰 상황에서 안전하다는 것을 확신 할 수 없게 됩니다.
• AI 시스템이 점점 더 민감한 상황에 배치되면서 내부 의사 결정 프로세스를 더 잘 이해하게되면 취약점을 파악하고 오류를 조사 할 수 있습니다.
• 활성화 지도는 신경망의 숨겨진 계층이 표현할 수있는 것을 연구하는 기술인 시각화를 기반으로합니다.
• 피쳐 시각화의 초기 작업은 주로 개별 뉴런에 집중되었습니다.
• 수십만 가지의 상호 작용하고 시각화하는 뉴런의 사례를 수집함으로써 활성화 지도는 개별 뉴런에서 뉴런이 공동으로 나타내는 공간을 시각화하는 방향으로 이행합니다. 


We’ve created activation atlases (in collaboration with Google researchers), a new technique…
Introducing Activation Atlases [blog.openai.com]
What does the world look like to AI? Researchers have puzzled over this for decades, but in…
A new tool from Google and OpenAI lets us better see through the eyes of artificial intelligence [www.theverge.com]
Introduction Neural networks can learn to classify images more accurately than any system…
Activation Atlas [distill.pub]
Left: A randomized set of one million images is fed through the network, collecting one random…
Exploring Neural Networks with Activation Atlases [ai.googleblog.com]


Login to comment

Open Wiki - Feel free to edit it. -
3/7 '19 answered



permanent link

Login to comment

Open Wiki - Feel free to edit it. -
3/7 '19 answered



permanent link

Login to comment