dontn의 등록된 링크

 dontn로 등록된 티스토리 포스트 수는 37건입니다.

면접(9) 네이버 최종 면접... 그리고 후기 [내부링크]

아무래도 이 글이 면접시리즈의 마지막이 될 것 같다. 마지막 기회야.. 이건 잡아야해 이미 7월이 넘어가는 시점, 나는 9월에 복학 예정이기에 남은 시간이 별로 없다. 이 면접이 실질적인 인턴 마지막 면접이기에..

면접(8) 네이버 1차 면접 [내부링크]

정말 감사하게도 나같은 감자를 서류통과 시켜주셨다. 역시 네이버는 대인배야! 결과가 나온 다음날인 7월 6일, 1차 인터뷰 관련 이메일이 날아왔다. 세부 포지션을 확인한 이후에, 끌리면서도 내가 잘해볼 수 있..

면접(7) 네이버의 코딩테스트... 그리고 결과 [내부링크]

이번 네이버 인턴의 코딩테스트 플랫폼은 프로그래머스가 아닌 "Codility"라는 곳이였다. Codility? 처음 들어보는데 여기도 백준, 프로그래머스, leetcode와 같이 코딩테스트를 치룰 수 있는 플랫폼 중 하나이며,..

면접(6) 나의 세 번째 도전, 네이버 [내부링크]

내 면접이야기의 세 번째 회사... 바로 네이버이다. 대한민국 최대의 포털사이트, 그 이름 네이버 네이버에 대한 설명이 더 필요할까? 어렸을 적 구글을 사용하지 않고 네이버만 사용하던 때가 있었고, 네이버 지..

면접(5) 스마일게이트 면접 후기 [내부링크]

역시 스마일게이트도 인성검사로 시작하였다. 넷마블때와는 달리 솔직하게 하면서도 일관성을 유지하기 위해 의식을 어느정도 했었다. 그 결과 따로 경고문구가 뜨거나 하지는 않았었다. 면접은 6월 16일에 보게..

면접(4) 내 두 번째 면접, 스마일게이트 [내부링크]

면접이야기의 두 번째 회사는 바로 스마일게이트다. 스마일게이트? 어쩌면 게임에 관심이 없다면 이 회사의 이름은 잘 들어보지 못했을 수도 있을 것이다. 나 역시 이전에는 잘 몰랐던 회사이지만, 이 회사는 예..

면접(3) 생애 첫 면접! 넷마블 면접 후기 [내부링크]

생애 처음으로 면접을, 그것도 대기업인 넷마블 면접을 보게 되었다. 면접을 보게 되어 정말 기뻤지만, 한 가지 아쉬운 점은, 이렇게 좋은 회사 면접을 경험이 없는 채로 치루게 된 점이였다... 이곳이 넷마블!..

면접(2) 넷마블에서 치루는 인생 첫 면접 [내부링크]

정말 감사하게도 나같은 감자에게 넷마블이 기회를 주셨다. 너의 인성은 어떠한가 먼저 면접을 보기 전에 온라인 인성검사 진행을 해달라고 하셨다. 인성검사는 뭐 별거 없었다. 그냥 이 사람이 어떤 성향의 사람..

면접(1) 그 첫 번째 회사, 넷마블 [내부링크]

내가 작성할 면접이야기의 첫 번째 회사는 바로 넷마블이다. ㅋㅋ, 넷마블! 어릴 때부터 게임을 엄청나게 해온 사람으로서, 넥슨, 넷마블은 매우 익숙한 회사이다. 넥슨 게임을 제일 많이 하기는 했지만, 넷마블..

7월이 끝나고.. [내부링크]

오늘은 7월 29일 금요일이다. 부스트캠프 3기가 끝난 지 벌써 1달 반 정도가 되었다. 많은 걸 배웠지만, 블로그 글을 꾸준히 쓰자는 다짐은 못 지킨 것 같다ㅋㅋㅋ 아무리 봐도 나는 글 쓰는 재주가 없어... 영양..

ELECTRA: PRE-TRAINING TEXT ENCODERSAS DISCRIMINATORS RATHER THAN GENERATORS [내부링크]

ABSTRACT BERT와 같은 Masked language modeling(MLM) pre-training 방법들은 input을 몇몇 [MASK] 토큰으로 교체함으로써 손상시키고, 모델이 원래 토큰을 만들어내도록 훈련시킨다. 비록 이 방법들이 downstream..

Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering [내부링크]

Abstract Open domain question answering을 위한 generative model들은 external knowledge에 의지하지 않는 채로 경쟁력이 있음을 증명해 왔다. 비록 이러한 접근법이 유망한 방법이지만, 파라미터가 수십억 개..

User Guide for KOTE: Korean Online Comments Emotions Dataset [내부링크]

Abstract 데이터를 긍정 혹은 부정으로 분류하는 감성 분석은 텍스트의 감정적인 측면을 인식하기 위해 주로 사용되어 왔다. 그러나 감정적 의미에 철저한 검토는 부족하였다. 최근에는, 단순 valence(심리학 용어..

Dense Passage Retrieval for Open-Domain Question Answering [내부링크]

Dense Passage Retrieval for Open-Domain Question Answering Open-domain question answering은 후보 context를 고르기 위한 효율적인 passage retrieval에 의지하며, 여기에는 전통적인 sparse vector space mo..

[MRC] 03. Generation-based MRC [내부링크]

Generation-based MRC는 Extraction-based MRC와는 달리 classification이 아닌 generation 문제이다. question을 보고 answer를 생성해낸다. Extractive answer dataset이라면, Extraction-based MRC와 동일하게..

[MRC] 02. Extraction-based MRC [내부링크]

질문과 답변이 항상 주어진 지문 내에 존재하여 span을 추출해내는 것이다. Extraction-based MRC는 EM(Exact Match) 및 F1-score로 평가받는다. 개략적인 Extraction-based MRC는 다음과 같이 나타낼 수 있다...

[MRC] 01. MRC Intro & Python Basics [내부링크]

MRC에 대해 간략하게 묘사할 수 있는 사진이다. MRC는 Machine Reading Comprehension의 줄임말로, 기계 독해를 의미한다. 마치 국어 비문학 문제처럼, 지문이 주어지면 그 지문을 읽고, 질문에 대한 답변을 하는..

BART: Denoising Sequence-to-Sequence Pre-training for NaturalLanguage Generation, Translation, and Comprehension [내부링크]

Abstract 이번 논문에서는 BART를 소개한다. BART는 seq2seq model을 pre-training시키는 denoising autoencoder이다. BART는 (1) 임의의 noising function으로 텍스트를 손상시키고, (2) original 텍스트를 재구..

KLUE: Korean Language Understanding Evaluation [내부링크]

Abstract KLUE benchmark에 대한 논문이다. 8가지 한국어 NLU task에 대한 모음이 KLUE이며, Topic Classification, Semantic Textual Similarity, Natural Language Inference, Named Entity Recognition, Relati..

RoBERTa: A Robustly Optimized BERT Pretraining Approach [내부링크]

Abstract Language model pretraining은 엄청난 성능 향상으로 연구들을 이끌었지만, 조심스레 다른 접근법들과 비교되고 있다. Training의 계산 비용은 expensive하고, 각기 다른 사이즈의 private dataset들로..

Language Models are Unsupervised Multitask Learners [내부링크]

Abstract Question answering, machine translation, reading comprehension, summarization과 같은 자연어 처리 task들은 전형적으로 task-specific한 데이터셋으로 supervised learning의 방식으로 접근한다. 연..

Improving Language Understanding by Generative Pre-Training [내부링크]

Abstract Natural language understanding(NLU, 자연어 이해, 컴퓨터가 사용자의 실제 의미를 추론함)은 textual entailment(두 문장이 주어졌을 때, 첫 번째 문장이 두 번째 문장을 수반하는가 혹은 위배되는가?)..

Bag of Tricks for Image Classification with Convolutional Neural Networks [내부링크]

Abstract Image classification 연구에서 이루어진 최근의 많은 진전들은 훈련 과정의 refinement(정제, 구체화, 여기서는 논문 제목의 trick과 의미가 비슷한 것 같음) 덕택이다. 예시로 data augmentation의 변..

(Vision Transformer)AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE [내부링크]

ABSTRACT Transformer 아키텍처가 NLP task에서 de-facto standard(사실상 표준, 공인 기관에서 공식적으로 지정한 표준은 아니지만 현재 압도적으로 쓰이는 업계 표준을 의미함)된 반면에, Computer Vision에서의..

[코드리뷰]BERT [내부링크]

이번 논문리뷰부터는 코드리뷰도 같이 진행하기로 하였다. 이번 코드리뷰는 huggingface의 transformers 패키지 내의 구현된 코드를 분석하는 것으로 하기로 하였다. 코드의 주소는 다음과 같다. https://github.c..

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding [내부링크]

Abstract 이번 연구팀에서는 새로운 language representation 모델인 BERT에 대해 소개한다. 이 BERT는, Bidirectional Encoder Representations from Transformers를 의미한다. 최근의 language representation..

[DL Basic] 8강 Transformer [내부링크]

 Transformer : RNN처럼 재귀적인 구조 없이, 오직 Attention을 이용하여 만들어진 구조이다. 여기서는 Self-Attention이라는 것이 Encoder와 Decoder에 이용이 되고, 핵심이다. Sequential한 데이터를 처리하고..

[DL Basic] 7강 RNN, LSTM, GRU [내부링크]

RNN(Vanilla) : 재귀적인 신경망으로, sequential한 data를 처리할 수 있는 신경망이다. 각각의 timestep에서의 입력과 이전 timestep까지의 hidden state를 이용하여 과거의 정보를 사용할 수 있는 Neural Networ..

[DL Basic] 2강 MLP [내부링크]

Neural Networks(신경망) : 초창기에는 인간의 뇌를 모방하여 만든 계산 시스템이였다. 그러나 비행기의 예시와 같이, 현 시점에서의 Neural Network를 인간의 뇌를 모방했다고 하기에는 무리가 있을 정도로 달라..

[Python] 5강 [내부링크]

파이썬의 예외처리 : 프로그램 사용 시 발생할 수 있는 여러 오류를 처리하는 것. 예상 가능한 예외는 반드시 개발자가 사전에 정의하여 처리를 해주어야함. try ~ except 문법 : 다음과 같음. Built-in Exceptio..

Sequence to Sequence Learning with Neural Networks [내부링크]

Abstract Deep Neural Network(DNN, 깊은 신경망, 딥러닝)은 어려운 task 학습에서 완벽한 성능을 보여준 모델이다. 비록 DNN은 label이 있는 거대한 training set이 있을 때에는 좋은 성능을 보여주지만, sequenc..

[DL Basic] 3강 Optimization [내부링크]

Optimization : gradient descent를 통하여 loss function의 local minimum을 찾아가는 과정임. 이 optimization에 여러 중요 개념들에 대해 알아보자. Generalization : model은 training data만 잘 맞추어서는..

[Python] 4강 [내부링크]

객체지향 프로그래밍(Object-Oriented Programming, OOP) : 객체(속성, 행동)의 개념을 프로그램으로 표현함. 여기서 속성(Attribute)은 변수(Variable), 행동(Action)은 함수(Method)로 표현함. OOP는 설계도에..

[Python] 3강 [내부링크]

collections 모듈 : List, Tuple, Dict에 대한 Python Built-in 확장 자료 구조(모듈) deque : Stack & Queue를 모두 지원하는 자료구조, rotate 및 reverse 등의 Linked List에 있는 특성 역시 지원이 된다. 기..

[Python] 2강 [내부링크]

변수(Variable) : 변수는 값을 저장하는 장소이며, 변수는 실제로는 메모리 주소를 가지고 있고, 값을 저장해야 할 때는 그 메모리 주소에 값을 할당하는 것이다. 기본 자료형(Primitive Data Types) 함수(Functi..

[Python] 1강 [내부링크]

Graphic User Interface(GUI)와는 다르게, Command Line Interface(CLI)는 텍스트 기반으로 컴퓨터에 명령을 내리는 인터페이스이다. 대표적인 명령어는 다음과 같다. (기본적인 것이니 반드시 외워놓자) 앞으로..

좀 늦어버린 티스토리 블로그 오픈! [내부링크]

작년에 학기 중에 지원한 네이버 부스트캠프 AI Tech 3기에 최종 합격하게 되었다. 최종적으로 내가 원했던 NLP 분야로 들어오게 되었다. 바로 휴학을 하고 2022년 1월 17일부터 시작을 하였는데... 귀찮아서 미루..