위클리 NLP Week 23 - NLP의 궁예 등장? 관심법으로 번역을 잘해보자 2020년 봉준호 감독의 기생충이 아카데미를 수상하면서 함께 주목을 받았던 사람이 바로 그의 동시 통역가 샤론 최 씨인데요. 기계번역이 아무리 좋아도 당장은 이런 고퀄리티의 통역가는 대체될 수 없겠구나라고 할 정도로 훌륭한
위클리 NLP Week 22 - 딥러닝 기계번역 모델 seq2seq 깊게 파보기 지난주에는 최근 몇년 간 기계번역 분야의 비약적인 성장에는 딥러닝 기반의 neural machine translation (NMT)의 seq2seq 모델이 있다는 것을 소개하며 간단히 모델의 구조에 대하여 공부해보았습니다. 그렇다면 seq2seq 모델은 어떤 방법으로
위클리 NLP Week 21 - 기계 번역의 패러다임을 바꾼 seq2seq 모델 저는 세기의 대결 2016년 <알파고 vs. 이세돌>을 인공지능 연구 석사를 시작하던 첫 학기 때 보았습니다. 저에게는 이제 이 새로운 길로 들어가려고 막 시작했던 때라 정말 가슴을 뛰게
위클리 NLP Week 20 - 구글 번역기는 처음에 어떻게 만들어진걸까? 영어 공부를 열심히 하면서 살던 중 어느 순간 컴퓨터가 번역을 자동으로 해줄 수 있다는 소식을 들었었습니다. 검색 시장으로 세계를 장악하던 G사가 만든 translate라는 제품. 간단한 거부터 해보았습니다. 오, 좀 하네?
위클리 NLP Week 19 - 언어 모델을 가지고 트럼프 봇 만들기?! 최근 윤종신 아티스트님이 구글 코리아에서 강연을 했던 것을 들었는데, 그 중 아주 인상 깊은 부분이 있었습니다. 청중 한 분이 “AI가 너무 발전해서 윤종신의 음악의 패턴을 분석해서 ‘윤종신스러운’ 새로운 곡을 쓸
위클리 NLP Week 18 - 기억력이 훨 좋은 딥러닝 언어 모델 등장! RNN LM "시장에 가면~ 바나나도 있고, 닭다리도 있고, 수박도 있고, 아이스크림도 있고~" 이 게임 기억나시는 분 있나요? 정말 옛날에 술자리에서 랜덤 게임을 하면 정말 드문 확률로 이 고전 게임이 시작되기도 했는데... (제가
위클리 NLP Week 17 - 딥러닝이 언어 모델에 필요한 이유 지난 2주 간 인공지능이 우리의 말귀를 알아들으려면 발음 모델 그리고 언어 모델을 학습해야 한다고 공부했습니다. 생각해보면 우리는 정말 많은 단어를 머리 속에 담고 무수히 많은 조합으로 문장을 쓰거나 대화를 합니다.
위클리 NLP Week 16 - AI은 어떻게 영어 발음을 나보다 잘 인식할 수 있을까 제 글이 값어치[가버치]를 하고 있나요? 글이 쌓고 [싸코] 쌓여 [싸여] 더 많은 지식이 여러분께 전달되었으면 좋겠네요. 이렇게 우리가 언어를 쓰는 방식은 실제로 발음하는 방식과 다를 때가 많습니다. 모국어의
위클리 NLP Week 15 - 인공지능은 말을 어떻게 알아 먹는걸까, ASR #1 사람이 많은 카페에서 친구와 같이 얘기를 하다가 잠깐 멈추면 주변이 얼마나 시끄러운지 그제야 깨닫게 되는 때가 종종 있습니다. 천장에서 나오는 음악, 양 옆에서 각자의 대화를 큰소리로 즐겁게 나누는 다른 사람들,
위클리 NLP Week 14 - 숫자만 잘 세도 NLP 모델이 된다? N-gram language model 지난 주 글에서 Language Model (LM)이 무엇인지에 대해서 배웠습니다. 어떠한 문장이 주어졌을 때 얼마나 그럴 듯 하냐를 확률(probability)로 나타내는 것이 LM의 핵심 개념입니다. 그렇다면 생각만 해도 복잡한
위클리 NLP Week 13 - 언어를 모델링한다? Language Model Basics 친구와 말을 하다 보면 특정한 단어가 생각나지 않을 때가 있지요. "내가 주말에 카페에서 공부를 하고 있는데... 그 누구지.. 커피.....""바리스타?""아 응, 바리스타가 말이야~"이렇게 친구가 내가 생각하는 단어를 잡아줄
위클리 NLP Week 12 - AI 모델에게도 예비 고사와 수능이 있다고요? 족보와 기출문제. 이 두 단어는 시험과는 떼려도 뗄 수 없는 단어들입니다. 학생들의 시험 기간 동안의 대화를 분석하면 이 단어들의 빈도 수가 높지 않을까요? 저 역시 고등학교 때 선배들한테 받은 기출문제들을
위클리 NLP Week 11 - 머신러닝 모델이 데이터를 공부하는 방법 대부분의 우리는 등산을 하러 가면 정상에 도달하자라는 하나의 목표를 가지고 열심히 걷습니다. 시작점에 있는 지도를 보기도 하고, 중간에 있는 팻말이 가리키는 방향을 보기도 하고, 사람들에게 물어보기도 합니다. 정말 모르겠으면 일단
위클리 NLP Week 10 - 단어를 컨베이어 벨트처럼 한개씩: RNN 저는 가끔은 책을 읽을 때 지금 보고 있는 부분을 손가락으로 가리키고는 합니다. 손가락을 밀면서 느껴지는 종이의 감촉이 좋아서 그런 것이기도 하고, 내용이 어려워서 집중을 잘하기 위해서 한데, 이러한 습관을 또
위클리 NLP Week 9 - 글을 그림처럼 보는 Convolutional Neural Network (CNN) 속독 (速讀) 학원이 한창 유행하던 때가 있었죠. 정보가 넘쳐나는 현대에 빠르게 글을 읽고 이해하는 것은 정말 누구나 탐내는 능력일 듯합니다. 저도 한참 공부를 많이 하던 중학생 때 그런 능력을 가진
위클리 NLP Week 8 - 스팸 이메일 분류기 만들기 여러분의 이메일 받은 편지함은 얼마나 빨리 쌓이시나요? 저는 이것저것 가입하다 보니깐 하루에도 홍보성 이메일이 수십 개가 오고는 합니다. 저는 앱 아이콘에 숫자가 그려져 있는 것을 견디지 못해서 전부 지우거나 몇
위클리 NLP Week 7 - 머신 러닝과 NLP는 왜 함께 갈까 인간은 태어난 순간부터 언어를 접합니다. 아기가 세상에 나온 순간 부모로부터 불리는 이름은 처음에는 그저 여러 소리 중 하나로 들리겠지요. 하지만 점점 커가면서 부모가 아기에게 내는 소리는 장난감에서 나는 방울 소리나
위클리 NLP Week 6 - 박 대리, 얘네 문서들 주제별로 분류해오게 오늘은 박 대리를 도와 문서 분류를 자동으로 처리할 수 있나 document(text) classification에 대해 공부를 해보겠습니다.
위클리 NLP Week 5 - 얘랑 나랑 얼마나 비슷해? 여러분은 어떤 사람과 얼마나 비슷한지 숫자로 표현할 수 있으신가요? "친구 A보다 B가 나와 좀 더 비슷한거 같아.." 라는 어찌어찌 할 수 있을거 같은데, 아무래도 절대적인 숫자를 생각해내기는 것은 조금 애매한거 같죠? 하지만 지난 2주 동안 배운 vector는 다릅니다! 명확하게 두 개의 vector 간의 거리를 계산하는 방법을 배워봅시다.
위클리 NLP Week 4 - <왕> minus <남자> plus <여자>= ? - + = ? - + = ? 다음 두 문제의 답은 무엇일까요? 이번 주에는 단어 간의 관계를 학습해 vector에 저장하는 word embedding이라는 아주 중요한 모델을 소개하려고 합니다
위클리 NLP Week 3 - 지구용사 벡터맨? Vector 기초 잡기! 다양한 사람들을 만나다 보면 어떤 사람은 정말 나와 비슷하다고 (similar) 느낄 때가 있습니다. 반대로 어떤 사람은 정말 거리감 (distance) 이 느껴지지요. 이번주는 사람이 아닌 벡터 (vector)가 무엇인지 공부하고 벡터 간의 비슷함과 거리감을 계산하는 방법을 소개하려고 합니다.