본문 바로가기

visioin_ai이론

(4)
[ ai 기초 ] AI의 정체는? ( feat. 수학이 필요한 이유, 확률과 통계, 선형 대수 ) 서서히 느끼는 것이지만, ai에서 수학은 선택이 아닌 필수다. 특히 개발자라면 필자는 수학이 반드시 필요하다고 생각하는 데 오늘은 그 이유에 대해 설명해볼까 한다 AI의 정체 딥러닝에서 일어나는 일에 대해 쉽게 생각해 보면, input 값을 주면 output이 나온다. 너무나 당연한가? 좀 더 풀어보자. 그 input이 image가 들어가면 원하는 task에 대한 output이 나온다. 그래 지금 이야기는 사용자의 입장에서 바라본 딥러닝이다. 여기서 조금만 더 생각해보자. 어떻게, 내가 임의의 input을 넣었는 데, 내가 원하는 output이 나오는 것일까? 신기하다. 더 잘 이해하기 위해, 사람의 입장에서 한번 생각해보자. 우리는 고양이를 보고 어떻게 고양이라고 인식하고, 강아지를 보고 어떻게 강아지..
[ computer vision AI ] focal loss 파헤치기 2 ( feat. Balanced Cross Entropy , focal loss ) 논문 원문 : https://arxiv.org/abs/1708.02002 저번 글에 이어 local loss에 대해 시작해보려합니다. 지난번 글은 아래 글을 참고해주세요 2023.01.04 - [visioin_ai이론] - [ computer vision AI ] focal loss 파헤치기 1 ( feat. loss function , information, entropy, cross entropy ) Balanced Cross Entropy Balanced Cross Entropy 식은 아래와 같아요 해당 식은 논문 원문에서 가져온 식이랍니다. 잠깐 복습하고 넘어갈까요? p_t는 어떤 사건이 일어날 확률이었고, -log(p_t) 는 정보량을 의미했죠. 그런데 저번에 다뤘던 cross entropy와는..
[ computer vision AI ] focal loss 파헤치기 1 ( feat. loss function , information, entropy, cross entropy ) 논문 원문 : https://arxiv.org/abs/1708.02002 Loss function 에 대해 한글로 하면 손실함수가 되겠네요. 손실 함수는 무엇인가 와닿지 않아요. 도대체 loss function의 역할이 무엇일까요? loss function( 손실 함수 )은 우리가 만든 분류기 ( classifier )에 대한 평가 지표라고 생각하시면 됩니다. 분류기에 대한 내용은 후에 다루도록 할게요. 오늘 주는 그게 아니니까요. 즉 평가 지표는 평가 지푠데, 얼마나 구린가에 대한 평가 지표입니다. loss가 크다면, 분류기는 해당 식이 정의한 정의 내에서는 분류를 잘하지 못한다라고 생각할 수 있는거죠. 그런데 loss function은 좀더 수학적으로 설명하면 무엇일까요? 실제 값과 예측 값의 차이를..
computer vision ai 기초 이론 1. 이미지를 점으로 보기 기초 지식 1. 이미지를 한 점으로 보기 제목부터가 무슨 말같지도 않은 소리인가 싶죠? 그런데 이 과정은 AI를 하는 데에 큰 직관을 던져 줍니다. 이미지를 한 점으로 보라는 말이 무슨 말일까요? 아래 2차원을 기준으로 생각 해볼게요. 2차원 상의 하나의 직선이 있습니다. 그림 1. 과 같죠. 이 직선을 a라 하겠습니다. 이 그림1의 직선을 하나의 축을 늘려 3차원에서 표시해 보겠습니다. 그럼 그림 2와 같은 형태가 될겁니다. 그림 2의 상황에서 직선 a의 법선 벡터 방향을 같는 평면을 하나 그려보죠. 해당 평면을 D라고 합시다. 그럼 3은 평면 D에서 본 직선의 모습을 나타냅니다. 즉 직선 a는 평면 D의 입장에서는 하나의 점이 되는 겁니다. 여기까지는 이해가 됐죠? 직선은 y = ax + b로 나타나..