forb300의 등록된 링크

 forb300로 등록된 네이버 블로그 포스트 수는 154건입니다.

[Javascript] _4_자바스크립트 자료형과 형 변환_숫자형, BigInt, 문자형, Boolean, null, undefined, 묵시적/명시적 형변환 [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) (하단에 강의 할인코드 있어요^^) 키워드 - 자바스크립트의 자료형(원시타입, 비원시타입) - 숫자형, BigInt형 - 문자형, Template literals - Boolean형 - null형, undefined형 - 자바스크립트의 형변환 - 묵시적 형변환, 명시적 형변환 - parseInt 이번에는 자바스크립트의 자료형과 형변환에 대해 공부해보겠습니다 자바스크립트의 자료형 자료형 : 변수의 종류를 의미하는 말 자바스크립트 자료형은 일단 크게 하나의 고정된 값 갖는 '원시(primitive) 타입'과 한번에 여러개의 값을 갖는 '비 원시(non-primitive) 타입'으로 나눠집니다 출처: 강의자료 캡쳐 자바스크립트 원시타입 자료형 살펴보기 "숫자형" 사칙연산(+-×÷ )가능 정수, 소수, Infinity, NaN 이 숫자형에 포함됩니다 Infinity: 무한대를 나타내는 값. 0으로 나누는

[Javascript] _5_자바스크립트의 연산자_산술, 대입, 논리, 비교, 연결, null병합, 삼항 연산자 [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) 키워드 - 자바스크립트 연산자 - 산술연산자 - 대입연산자 - 복합대입연산자 - 논리연산자 - 비교연산자 - 연결연산자 - null 병합연산자 - 삼항연산자 이번에는 자바스크립트의 연산자에 대해 알아보겠습니다 연산자 종류가 많아요 다른 언어와 겹치는 연산자들도 많지만 자바스크립트에서 처음 등장하는 연산자들도 있기 때문에 잘 봐둬야합니다 자바스크립트의 연산자 연산자 : 프로그래밍 언어에서 특정 연산을 할 수 있도록 도와주는 문자 "산술연산자" 사직연산 연산자 나머지 연산자 증감연산자 기호 +, -, *, / % ++, -- 전위연산 후위연산 ++num : 먼저 더하고 작업 num++ : 작업 후 더하기 num에 1이 들어갔을 때 후위연산을 해서 출력하고 일단 출력하고 1을 더해줍니다 그래서 후위연산을 한 다음에 num을 확인하면 2가 됩니다 전위연산을 하면 1을 더한 다음에 출력을 하기 때문에 3이

[Javascript] _6_자바스크립트의 조건문과 반복문_ if, else if, else, for, while [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) 키워드 - 조건문(if, if-else, if-else if) - 반복문(for, while) - Object.keys() - Object.values() - Object.entries() - for-on - for-in 이번에는 자바스크립트의 조건문과 반복문에 대해 다뤄보겠습니다 자바스크립트의 조건문 조건문 : 특정 조건이 성립되었을 때, 그 조건에 해당하는 코드를 실행하게 하는 문법 자바스크립트의 조건문의 종류는 크게 4가지가 있습니다 c에서 사용하는 조건문과 굉장히 유사하네요 if문 if-else문 if-else if문 switch/case문 형태 if(조건) { 코드; } if(조건) { 코드1; } else { 코드2; } if (조건1) { 코드1; } else if(조건2) { 코드2; } else { 코드3; } switch(변수값){ case 1번케이스: 코드1; break; ca

[Javascript] _7_자바스크립트 함수, 지역변수/ 전역변수 _function, return, early return, local/global variable [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) 키워드 - 함수(function) - 함수의 선언과 호출 - return문 - Early Return Pattern - 지역변수(Local variable) - 전역변수(Global variable) 자바스크립트 함수 함수 : 같은 동작을 하는 중복된 코드가 이곳저것에 존재할 때, 이것을 하나로 묶어 하나의 명령으로 실행할 수 있게 해주는 기능 함수의 선언과 호출방법 같은 기능을 하는 똑같은 코드를 계속 작성하기보다는 함수로 선언해두고 필요할때 가져와서 쓰면 훨씬 사용하기 좋습니다 이렇게 두 수의 합을 구할 때 같은 구조의 코드를 똑같이 쓰는 것은 비효율적이고 쓸데없이 길기만 합니다 그래서 이렇게 함수로 쓰면 훨씬 효율적으로 쓸 수 있습니다 함수를 호출할 때는 함수이름과 함수의 매개변수로 넣을 값(인수)을 적으면 됩니다 함수의 return문 함수의 결과를 반환하고 싶다면 return문을 추가하면

[Javascript] _8_자바스크립트의 '스코프'와 '호이스팅'_global scope, local scope, hoisting, temporal dead zone [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) 키워드 - 스코프(전역, 지역) - let, var의 스코프 - 호이스팅(함수호이스팅, 변수호이스팅) - TDZ(Temporal Dead Zone) 스코프(Scope) 자바스크립트에서 우리가 변수나 상수를 생성할 때 해당 변수 또는 함수가 갖게 되는 유효범위를 '스코프(Scope)'라고 합니다 자바스크립트에는 크게 4가지 스코프가 있어요 이 4가지 스코프를 한 표에 정리해 봤습니다 전역스코프(Global scope) 지역스코프(Local scope) 가능범위 어디서든지 해당 변수에 접근할 수 있는 범위 해당 지역에서만 접근할 수 있는 범위 스코브 전역 스코브를 가짐 지역 스코프를 가짐 종류 블록스코프 함수스코프 같은 블록(중괄호, { })에서만 접근 가능한 범위 함수 내부에서만 접근 가능한 범위 이~전 포스팅에서 자바스크립트의 변수와 상수에 대해 다룰 때 var와 let의 차이점에 대해 언급했었습

[Javascript] _9_자바스크립트 함수 마무리!_함수선언식, 함수표현식, 화살표형 함수, 콜백함수 [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) 키워드 - 함수표현식 - 함수선언식 - 화살표함수 - 콜백함수 이전에 이미 함수를 다뤘는데 왜 다시 함수선언식과 함수표현식을 다루는 거냐!하겠지만 이전은 함수의 기본이었고 이번 포스팅을 통해 함수 마무리를 해보겠습니다 함수선언식과 함수표현식 일반적으로 함수 선언은 function키워드 옆에 함수의 이름을 적는 방식으로 합니다 출처: 강의 캡쳐화면 그렇지만 자바스크립트에서는 오른쪽 방식과 같이 함수를 선언할 때 함수표현식을 사용해서 함수를 만들 수 있습니다 변수에 값을 할당하는 것처럼 함수를 변수에 할당했습니다 함수 선언식과 함수 표현식의 차이점은 강의자료에서 잘 비교하고 있어서 가져와봤습니다 출처: 강의화면 캡처 함수 선언식은 호이스팅(앞쪽으로 끌고오기)이 가능한데 함수 표현식은 호이스팅이 불가능합니다 그래서 함수선언식은 결과가 잘 출력되지만 함수표현식은 에러가 생기게 됩니다 함수표현식으로 쓰고

[딥러닝 개념 13] 일반화(Generalization)가 잘 된 모델을 만들어보자(2)_데이터증강, Early Stop, 가중치제어, 앙상블, Dropout [내부링크]

여기서 다루는 내용의 키워드 - 딥러닝 모델의 일반화 - 데이터 증강(augmentation) - Early Stop - 가중치제어 - L1 규제, L2 규제 - 앙상블 - Dropout 모델 학습은 중요합니다 더 중요한 것은 우리의 모델이 새로운 데이터가 들어와도 결과가 잘 나오는 일반화가 잘된 모델이 되도록 만드는 것입니다 이번에는 모델의 일반화를 방해하는 문제들을 해결하고 일반화가 잘된 모델을 만드는 방법에 대해 다뤄보겠습니다 일반화가 잘 된 모델을 만드는 방법은 여러가지가 있습니다 그 중에서 대표적인 방법 몇개를 살펴보아요 더 많은 데이터 사용하기 가장 간단(?)한 방법입니다 좋은 양질이 데이터를 많이많이 사용하면 돼요 크고 아름답고 더 좋은 데이터셋은 일반화 향상에 가장 좋은 방법이지요 근데 좋은 데이터를 많이 수집하는 것은 쉽지 않은 일입니다... 보안 문제, 데이터를 가져올 출처 등등 고려해야 할 여러 문제가 있기 때문입니다 그래서 많은 데이터를 사용하기 위해 Data

[(인프런)웹 프론트엔드를 위한 자바스크립트 첫 걸음]_1_vscode로 Javascript 돌려보기 [내부링크]

(하단에 강의 할인쿠폰 있어요~!) 강의에서는 sandbox를 사용하지만 sandbox가 대대적인 공사에 들어가서 수업에서 사용하는 템플릿인 vanilla javascript가 없어졌다고 해요 (아니 있던 템플릿을 없애네..? 실화냐...) 그래서 강의에서 말한대로 vscode를 사용해서 로컬에서 돌렸습니다 실행결과도 보고 싶으니까 vscode의 확장 프로그램 중 하나인 live server를 설치해줍니다 이렇게 생긴 녀석입니다 간단하게 index.html과 index.js파일을 만들어줍니다 그리고 강의에 나왔던 대로 간단뽀짝하게 코드로 써줍니다 이 코드는 자바스크립트를 넣지 않은 html코드입니다 이 코드를 실행한 결과를 live server로 확인할 수 있습니다 live server를 설치하면 vscode 오른쪽 하단에 Go Live가 생깁니다 그것을 클릭하면 됩니다 연결 전 연결 후. Port:5500을 클릭하면 연결해제도 가능합니다 그러면 이렇게 브라우저에 결과가 자동으로 뜨

[99클럽 코테문제 8_1, 8_2]_<프로그래머스> 이상한 문자 만들기(Lv1), 하사드 수(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제는 이상한 문자 만들기와 하사드 수 입니다 이상한 문자 만들기 (Lv1) 이 문제는 문자열이 주어졌을 때 단어의 짝수번째 알파벳은 대문자로 홀수번째 알파벳은 소문자로 바꾸는 문제입니다 이때 주의해야 할 점은 공백은 짝/홀수 결정에 영향을 주지 않는다는 것입니다 전체 문자열을 기준으로 판단하는 것이 아니라 문자열에 있는 단어를 기준으로 판단해야 합니다 이 문제를 풀 때 가장 먼저 생각한 것은 공백을 어떻게 처리할까였어요 첫번째로 생각한 아이디어는 문자열을 공백을 기준으로 단어별로 분리한 다음 단어 안의 알파벳을 하나하나 확인하면서 대소문자를 바꿔주고 다시 하나의 문자열로 합쳐주는 방법이었어요 이 방법으로도 가능할 것 같았는데 단어 단위로 쪼개고... 단어를 또 알파벳으로 쪼개고...하는 것이 간단하게 할 수 있는 일을 늘리는 것 같아서 좀 더 간단한 방법을 생각해봤습니다 두 번째로 생각한 방법은 문자열 자체를 문자 하나하나로 나눠버리는 것이에요 공백도 문자 취급을 해

[99클럽 코테문제 8_3]_<프로그래머스> 카펫(Lv2) | python풀이 [내부링크]

오늘의 미들러 문제는 2개인데 아직 한 문제밖에 못 풀었어요 (나머지도 풀거임. 진짜임) 오늘 푼 문제는 바로 '카펫'입니다 중앙엔 노란색, 주변은 갈색으로 칠해진 격자무늬 카펫이 있습니다 노란색으로 칠해진 격자 개수와 갈색으로 칠해진 격자 개수는 알고 있지만 전체 카펫의 크기를 모릅니다 이때 카펫의 크기를 구하는 것이 이 문제의 내용입니다 카펫의 크기는 가로길이가 세로 길이보다 크거나 같다고 합니다 이 문제는 3단계로 나눠서 풀면 복잡하지 않게 풀 수 있습니다 Step1: 갈색 격자 개수의 패턴 파악하기 중앙에 노란색이 있고 주변에 갈색이 있다고 했으니까 혹시 패턴이 있지 않을까 생각해서 그림을 그려봅니다 중앙에 노란색 격자를 놓으면 노란색 격자 주변 4면에 갈색 격자를 기본적으로 놓아야합니다 그리고 사방 코너에 갈색 격자를 하나씩 추가해줘야해요 4면에 놓이는 갈색격자의 수는 노란색 격자의 배열 형태에 영향을 받습니다 노란색 격자가 가로로 2개, 세로로 1줄 놓여있다면 4면에 있는

[99클럽 코테문제 9_1]_<프로그래머스> 나누어 떨어지는 숫자 배열(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제는 '나누어 떨어지는 숫자 배열'입니다 코딩테스트 연습 - 나누어 떨어지는 숫자 배열 array의 각 element 중 divisor로 나누어 떨어지는 값을 오름차순으로 정렬한 배열을 반환하는 함수, solution을 작성해주세요. divisor로 나누어 떨어지는 element가 하나도 없다면 배열에 -1을 담아 반환하세요. 제한사항 arr은 자연수를 담은 배열입니다. 정수 i, j에 대해 i ≠ j 이면 arr[i] ≠ arr[j] 입니다. divisor는 자연수입니다. array는 길이 1 이상인 배열입니다. 입출력 예 arr divisor return [5, 9, 7, 10] 5 [5, 10] [2, 36, 1... school.programmers.co.kr 주어진 배열의 각 요소 중에서 devisor라는 수로 나눴을 때 나눠떨어지는 수들을 오름차순으로 정렬한 배열을 만들어내는 것이 이 문제의 내용입니다 만약에 devisor로 나눠떨어지는 수가 없다면 [-1

[99클럽 코테문제 10]_<프로그래머스> 짝수와 홀수(Lv1), 문자열 내 마음대로 정렬하기(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제는 '짝수와 홀수', 미들러 문제는 '문자열 내 마음대로 정렬하기'입니다 짝수와 홀수 코딩테스트 연습 - 짝수와 홀수 문제 설명 정수 num이 짝수일 경우 "Even"을 반환하고 홀수인 경우 "Odd"를 반환하는 함수, solution을 완성해주세요. 제한 조건 num은 int 범위의 정수입니다. 0은 짝수입니다. 입출력 예 num return 3 "Odd" 4 "Even" school.programmers.co.kr 주어진 숫자가 홀수라면 'Odd', 짝수라면 'Even'을 반환하는 문제입니다 def solution(num): answer = 'Odd' if num %2==0: answer = 'Even' return answer 위에 했던 말을 그대로 코드로 옮겨주면 됩니다 answer를 odd와 even 중 하나로 초기화 한 후에 조건문으로 홀수인지 짝수인지 판단하는 코드를 추가하면 else를 쓰지 않고 원하는 값을 반환할 수 있습니다 문자열 내 마음대로 정렬

[99클럽 코테문제 11]_<프로그래머스> 평균구하기(Lv1), 두 개 뽑아서 더하기(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제와 미들러 문제는 '평균구하기' 문제와 '두 개 뽑아서 더하기' 문제입니다 평균구하기 (for 비기너) 코딩테스트 연습 - 평균 구하기 문제 설명 정수를 담고 있는 배열 arr의 평균값을 return하는 함수, solution을 완성해보세요. 제한사항 arr은 길이 1 이상, 100 이하인 배열입니다. arr의 원소는 -10,000 이상 10,000 이하인 정수입니다. 입출력 예 arr return [1,2,3,4] 2.5 [5,5] 5 solution.c 실행 결과 실행 결과가 여기에 표시됩니다. school.programmers.co.kr 배열이 주어졌을 때 배열의 평균을 반환하는 문제입니다 평균을 잘 구하는 것이 포인트입니다 반복문을 사용해서 더할 수도 있지만 sum() 을 사용하면 한번에 구할 수 있습니다 평균이기 때문에 전체합에 배열의 크기를 나눠주면 됩니다 이 내용을 코드로 구현하면 아래와 같습니다 def solution(arr): answer = 0 a

[Javascript]_2_자바스크립트를 배워야하는 이유, 자바스크립트 작동방식 [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) (하단에 강의 할인코드 있음^^) 키워드 정리 -자바스크립트의 정의 - 자바스크립트를 배워야 하는 이유 - 자바스크립트 엔진 - 자바스크립트 실행환경, 런타임 - 자바스크립트 에디터 - 자바스크립트 - 웹페이지를 사용자와 상호작용이 가능하게(=동적으로) 만들어주기 위해 개발된 프로그래밍 언어 자바스크립트 기반의 기술들이 굉장히 많이 쓰이고 있습니다(인기가 많아요) Node.js, React.js 등등 많이 보이는 기술들이 자바스크립트 기반입니다 그러니 이 기술들을 다루기 위해서는 기본인 자바스크립트를 잘 공부해야합니다 출처: 강의화면 캡쳐 다른 자바스크립트 기반의 기술들을 배우려고할 때 자바스크립트를 공부하는 단계를 뛰어넘는다면 라이브러리나 프레임워크를 이해하지 못할 수 있습니다 그러니 더욱 자바스크립트를 배워야겠지요 (React부터 공부하려고 한 나! 반성합니다) 출처: 강의화면 캡쳐 자바스크립

[Javascript]_3_ 자바스크립트의 변수와 상수_ let, var, const, 자료형 [내부링크]

(인프런의 '웹 프론트엔드를 위한 자바스크립트 첫걸음' 강의를 듣고 정리한 내용입니다) (하단에 강의 할인쿠폰 있어요~!) 키워드 정리 - 자바스크립트 변수(let) - 동적타입 - 변수의 자료형(typeof 명령어) - 변수 이름짓기(제외사항, 카멜표기법) - 자바스크립트 상수(const) 자바스크립트 기본 문법 공부를 시작합니다 기본 문법을 공부하는데에 html까지 연결하기는 좀 귀찮으므로 실시간으로 결과를 확인할 수 있는 온라인 에디터를 사용해보았습니다 좋은 온라인 에디터가 있어서 공유해봅니다 실시간으로 자바스크립트 결과를 볼 수 있어서 좋아요 (무료인 대신에 광고가 있긴 하지만 이정도는 납득가능) Online JavaScript Compiler (Editor) { } www.programiz.com 이렇게 생겼는데 아주 쓰기 좋습니다 Javascipt의 변수 변수를 사용할 때는 앞에 'let'을 붙여줍니다 예시 결과 출력(print 기능) cosole.log(출력할 값); 변

[99클럽 코테문제 12]_<프로그래머스> 없는 숫자더하기(Lv1), 로또의 최고순위와 최저순위(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제는 '없는 숫자 더하기'와 '로또의 최고순위와 최저순위'입니다 없는 숫자 더하기 없는 숫자 더하기는 0-9까지의 숫자 중 일부가 들어있는 정수 배열에서 0-9까지의 수 중에서 해당 배열에 없는 수를 찾아 더한 값을 구하는 문제입니다 코딩테스트 연습 - 없는 숫자 더하기 0부터 9까지의 숫자 중 일부가 들어있는 정수 배열 numbers 가 매개변수로 주어집니다. numbers 에서 찾을 수 없는 0부터 9까지의 숫자를 모두 찾아 더한 수를 return 하도록 solution 함수를 완성해주세요. 제한사항 1 ≤ numbers 의 길이 ≤ 9 0 ≤ numbers 의 모든 원소 ≤ 9 numbers 의 모든 원소는 서로 다릅니다. 입출력 예 numbers result [1,2,3,4,6,7,8,0] 14 [5,8,4,0,6,7,9] 6 입출력 예 설명 입출력 예 #1 5, 9가 numbers 에 없으... school.programmers.co.kr 0-9까지의 범위에

[99클럽 코테문제3]_<프로그래머스> 문자열을 정수로 바꾸기 | python풀이 [내부링크]

오늘도 잔잔하게 올라온 코테스터디 문제를 풀어봅니다 오늘 올라온 비기너 레벨 문제는 프로그래머스의 문자열을 정수로 바꾸는 문제입니다 코딩테스트 연습 - 문자열을 정수로 바꾸기 문제 설명 문자열 s를 숫자로 변환한 결과를 반환하는 함수, solution을 완성하세요. 제한 조건 s의 길이는 1 이상 5이하입니다. s의 맨앞에는 부호(+, -)가 올 수 있습니다. s는 부호와 숫자로만 이루어져있습니다. s는 "0"으로 시작하지 않습니다. 입출력 예 예를들어 str이 "1234"이면 1234를 반환하고, "-1234"이면 -1234를 반환하면 됩니다. str은 부호(+,-)와 숫자로만 구성되어 있고, 잘못된 값이 입력되는 경우는 없습니다. solution.c 실행 결과 실행 결과가 여기에 표시됩니다. school.programmers.co.kr 문제는 간단합니다 숫자가 문자열의 형태로 주어지면 그것을 정수로 바꿔서 출력해주면 되는 겁니다 만약 앞에 부호(-. +)가 있다면 그것도 처리해줘

패스트캠퍼스 환급챌린지 60일차 미션(3월 31일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - FCN - DeepLab - DeConvNet - Encoder, Decoder - U-Net <오늘의 강의정리> Fully-Convolutional Networks(FCN) Semantic Segmentation을 위한 첫번째 end-to-end architecture입니다 fully connected layers 대신에 1x1 convolution을 사용합니다 image classification은 이미지를 convolution을 하고 fully connected layer 2개를 통과시켜서 얻은 결과에서 가장 확률이 높은 것은 image label로 지정합니다 semantic segmentation은 fully connected layer 대신에 feature map을 남기고 1x1 convolution이 슬라이딩 하면서 pixel들의 classification score를 뽑아냅니다. 그래서 output map이 출력이 됩니다 full

[99클럽 코테문제4]_&lt;프로그래머스&gt; 콜라츠 추측 | python풀이 [내부링크]

오늘의 문제는 콜라츠 추측입니다 코딩테스트 연습 - 콜라츠 추측 1937년 Collatz란 사람에 의해 제기된 이 추측은, 주어진 수가 1이 될 때까지 다음 작업을 반복하면, 모든 수를 1로 만들 수 있다는 추측입니다. 작업은 다음과 같습니다. 1-1. 입력된 수가 짝수라면 2로 나눕니다. 1-2. 입력된 수가 홀수라면 3을 곱하고 1을 더합니다. 2. 결과로 나온 수에 같은 작업을 1이 될 때까지 반복합니다. 예를 들어, 주어진 수가 6이라면 6 → 3 → 10 → 5 → 16 → 8 → 4 → 2 → 1 이 되어 총 8번 만에 1이 됩니다. 위 작업을 몇 번이나 반복해야 하는지 반환하는 ... school.programmers.co.kr 주어진 수를 주어진 조건에 따라 계속 계산해주면 모든 수를 1로 만들 수 있다는 추측이 콜라츠 추측입니다 짝수면 2로 나누고 홀수면 3을 곱하고 1을 더해주면 됩니다 만약 처음 수가 1이라면 0을 반환하고 500번을 반복했는데도 1이 안나오면 -

[딥러닝 개념 11] 신경망의 학습에 영향을 주는 초매개변수(Hyperparameter) [내부링크]

여기서 다루는 내용의 키워드 - Hyperparameter(초매개변수) 지금까지 모델의 학습을 위해 데이터셋 분리하는 것과 학습 방향, 사용되는 알고리즘, 최적화 방법 등등을 살펴봤습니다 학습과정을 많이 알아본 것 같은데 우리가 또 봐야 할 것들이 있습니다 바로 '초매개변수(Hyperparameter)'입니다 매개변수는 알겠는데 '초'매개변수는 익숙하지 않은 단어입니다 뭔가 초인적인 힘을 가지고 있는 것 같지 않나요 매개변수는 크게 2가지로 나눠집니다 학습가능한 매개변수(Trainable parameters) 초매개변수(Hyperparameter) 학습가능한 매개변수는 학습과정에서 학습되는 변수입니다 계산을 하다보면 변화하기도 하는 변수이지요 학습의 역전파 과정에서 업데이트되는 가중치가 이에 해당합니다 초매개변수는 이와 다르게 알고리즘에는 영향을 주지만 초반에 한번 설정해두면 학습되지 않아서 변하지 않는 매개변수를 의미합니다 이런 변수가 있었나 싶지요? 생각보다 굉장히 많습니다 Hy

[99클럽 코테문제5 "만우절특집"]_&lt;프로그래머스&gt; 짝수의 합 _ 길고 복잡하게 풀어보기 [내부링크]

오늘은 만우절입니다 학교 같은 데를 가야 만우절인 것을 느낄테지만 갈 일이 없는 저는 만우절인 것도 모르고 있었어요 그러다가 코테스터디에서 만우절 특집 문제를 내주셔서 만우절인 것을 알았습니다 (오늘의 TIL은 이거다!) 만우절 특집 문제는 "짝수의 합"문제입니다 주어진 n이하의 짝수인 정수를 모두 더하면 되는 문제랍니다 코딩테스트 연습 - 짝수의 합 문제 설명 정수 n 이 주어질 때, n 이하의 짝수를 모두 더한 값을 return 하도록 solution 함수를 작성해주세요. 제한사항 0 < n ≤ 1000 입출력 예 n result 10 30 4 6 입출력 예 설명 입출력 예 #1 n 이 10이므로 2 + 4 + 6 + 8 + 10 = 30을 return 합니다. 입출력 예 #2 n 이 4이므로 2 + 4 = 6을 return 합니다. school.programmers.co.kr 간단하게 풀 수 있는 문제이지만 최대한 복잡하고 길~~~~게 풀어보는 것이 미션입니다 간단하게 풀면 2

[99클럽 코테문제6_1]_&lt;프로그래머스&gt; 음양 더하기(Lv1) | python풀이 [내부링크]

오늘의 비기너 문제는 음양더하기 문제입니다 코딩테스트 연습 - 음양 더하기 어떤 정수들이 있습니다. 이 정수들의 절댓값을 차례대로 담은 정수 배열 absolutes와 이 정수들의 부호를 차례대로 담은 불리언 배열 signs가 매개변수로 주어집니다. 실제 정수들의 합을 구하여 return 하도록 solution 함수를 완성해주세요. 제한사항 absolutes의 길이는 1 이상 1,000 이하입니다. absolutes의 모든 수는 각각 1 이상 1,000 이하입니다. signs의 길이는 absolutes의 길이와 같습니다. signs[i] 가 참이면 absolutes[i] 의 실제 정수가 양수임을, 그렇지 않... school.programmers.co.kr 정수의 절대값이 있는 배열과 정수의 부호가 담긴 배열이 있어요 정수의 부호가 담긴 배열은 true가 +, false가 -를 의미합니다 이 배열들을 사용해서 실제 정수의 값을 찾아서 정수들의 전체 합을 구하면 됩니다 def solut

[99클럽 코테문제6_2]_&lt;프로그래머스&gt; 피보나치수(Lv2) | python풀이 [내부링크]

오늘의 미들러 문제는 피보나치수입니다 코딩테스트 연습 - 피보나치 수 문제 설명 피보나치 수는 F(0) = 0, F(1) = 1일 때, 1 이상의 n에 대하여 F(n) = F(n-1) + F(n-2) 가 적용되는 수 입니다. 예를들어 F(2) = F(0) + F(1) = 0 + 1 = 1 F(3) = F(1) + F(2) = 1 + 1 = 2 F(4) = F(2) + F(3) = 1 + 2 = 3 F(5) = F(3) + F(4) = 2 + 3 = 5 와 같이 이어집니다. 2 이상의 n이 입력되었을 때, n번째 피보나치 수를 1234567으로 나눈 나머지를 리턴하는 함수, solution을 완성해 주... school.programmers.co.kr 피보나치 수는 초기값 2개가 0, 1일때 한단계 전 수와 두단계 전 수의 합인 수를 의미합니다 주어진 문제에서는 n번째 피보나치수를 구해서 1234567로 나눈 나머지를 구하라고 합니다 n번째 피보나치수를 잘 구하는 것이 포인트입니다 피

[99클럽 코테문제7_1]_&lt;프로그래머스&gt; 행렬의 덧셈(Lv1) | python풀이 [내부링크]

오늘의 비기너레벨 문제는 '행렬의 덧셈'입니다 코딩테스트 연습 - 행렬의 덧셈 문제 설명 행렬의 덧셈은 행과 열의 크기가 같은 두 행렬의 같은 행, 같은 열의 값을 서로 더한 결과가 됩니다. 2개의 행렬 arr1과 arr2를 입력받아, 행렬 덧셈의 결과를 반환하는 함수, solution을 완성해주세요. 제한 조건 행렬 arr1, arr2의 행과 열의 길이는 500을 넘지 않습니다. 입출력 예 arr1 arr2 return [[1,2],[2,3]] [[3,4],[5,6]] [[4,6],[7,9]] [[1],[2]] [[3],[4]] [[4],[6]] school.programmers.co.kr 행과 열의 크기가 같은 두 행렬 arr1, arr2 가 있습니다 이 두 행렬의 행렬 덧셈 결과를 반환하는 것이 이 문제에서 원하는 것입니다 전 일단 answer행렬을 주어진 행렬의 행과 열 크기로 초기화해줬어요 2행 2열인 행렬이 주어졌다면 answer는 [[0,0], [0,0]]로 초기화됩니다

[99클럽 코테문제7_2]_&lt;프로그래머스&gt; 기사단원의 무기(Lv1) | python풀이 [내부링크]

오늘의 미들러 문제는 '기사단원의 무기' 문제입니다 코딩테스트 연습 - 기사단원의 무기 숫자나라 기사단의 각 기사에게는 1번부터 number 까지 번호가 지정되어 있습니다. 기사들은 무기점에서 무기를 구매하려고 합니다. 각 기사는 자신의 기사 번호의 약수 개수에 해당하는 공격력을 가진 무기를 구매하려 합니다. 단, 이웃나라와의 협약에 의해 공격력의 제한수치를 정하고, 제한수치보다 큰 공격력을 가진 무기를 구매해야 하는 기사는 협약기관에서 정한 공격력을 가지는 무기를 구매해야 합니다. 예를 들어, 15번으로 지정된 기사단원은 15의 약수가 1, 3, 5, 15로 4개 이므로, 공격력이 4인 무기를 구매합니다. 만약, 이... school.programmers.co.kr 기사는 본인의 기사번호의 약수의 개수에 해당하는 공격력을 가진 무기를 구매하려 합니다 그런데 공격력의 제한수치(limit)를 넘는다면 미리 지정된 공격력(power)에 해당하는 무기를 구매해야합니다 공격력 1당 1kg의

[딥러닝 개념 12] 일반화(Generalization)가 잘 된 모델을 만들어보자(1)_Overfitting(과대적합)과 Underfitting(과소적합) [내부링크]

여기서 다루는 내용의 키워드 - 딥러닝 모델 일반화 - Overfitting - Underfitting - Training loss & Validation loss 우리가 만들고자 하는 모델은 일반화(Generalization)가 잘된 모델입니다 일부 데이터에만 맞는 모델이 아니라 새로운 데이터를 넣어도 잘 예측하는 모델을 원해요 - 일반화 - 학습데이터에 치우치지 않고 새로운 데이터가 들어와도 원하는 결과를 얻는 방법 일반화가 잘된 모델을 만들기 위해서는 고려해야하는 것이 많습니다 데이터가 너무 없거나 기타 등등 이유들로 인해서 모델에 문제가 생겨 일반화가 잘 되지 않을 수 있어요 일반화가 잘 되지 않은 모델은 overfitting(과대적합)이 되었거나 underfitting(과소적합)이 된 모델인 경우가 많습니다 Overfitting과 Underfitting을 공부하는 것으로 비유해볼게요 여기 학생 A(=model)는 공부를 할 때 주어진 참고서(=학습데이터)를 사용해서 열심히

패스트캠퍼스 환급챌린지 55일차 미션(3월 26일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - RCNN - Fast R-CNN - Faster R-CNN - Mask R-CNN <오늘의 강의정리> RCNN(Region-based CNN) 2stage object detector입니다 region proposal 뽑고 classification을 둬서 두 단계의 object detection을 수행합니다 1stage object detector은 한번에 object를 뽑으면서 그 위치에 대해 classification도 동시에 수행합니다 과정 입력이미지에서 region proposal을 추출합니다(selective search, edgebox를 사용합니다) CNN feature extractor로 classification을 수행합니다. object가 1개라면 softmax, 여러개라면 SVM을 사용하고 그 결과에 sigmoid를 classification을 수행합니다 Regions proposal을 뽑는 bounding box regr

[딥러닝 개념 10] 학습에 사용될 데이터셋을 나눠보자_Train, Validation, Test [내부링크]

여기서 다루는 내용의 키워드 - 데이터셋 분할 - 학습 데이터셋(Train data) - 검증 데이터셋(Validation data) - 테스트 데이터셋(Test data) - Train / Validation / Test 학습을 할 때 데이터가 필요합니다 그런데 이 데이터를 모두 학습에'만' 사용할까요? 데이터를 모두 학습에만 사용한다면 학습이 잘 되었는지 확인은 어떻게 할까요 그래서 데이터를 모두 학습에 쓰는게 아니라 역할에 따라 분할을 합니다 데이터셋을 일단 크게 2개로 나눕니다 학습에 사용할 학습 데이터셋과 테스트에 사용할 테스트 데이터셋입니다 1차 쪼개기 테스트 데이터셋은 마지막에 평가할 때 딱 한번만 사용됩니다 그런데 학습한 모델이 정말 학습이 잘된건가 확인하고 싶잖아요? 또는 학습 데이터에 너무 overfitting이 된 것은 아닌가 이런 걱정이 들 수도 있습니다 그래서 학습 데이터셋 중에서 일부를 분리해서 검증데이터(validation data)로 사용합니다 2차 쪼개

패스트캠퍼스 환급챌린지 56일차 미션(3월 27일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - YOLO - YOLO v2 - YOLO v3 - YOLO v4 - Object Detection 평가지표 <오늘의 강의정리> YOLO(You Look Only Once) 'You look only Once: Unified, Real-time Object Detection(CVPR 2016)'에서 제시된 방법입니다 One stage Detector 입니다 regional proposal와 classification이 동시에 이루어져서 속도가 빠릅니다 과정 448x448 크기로 입력이미지를 리사이징합니다 이미지에 대해 convolutional network를 적용합니다 ImageNet classification task로 pretrain한 conv layer들을 사용합니다 해상도를 반으로 줄인 다음(224x224)에 detection할 때는 2배로 늘려줍니다 feature map에서 threshold을 해서 detection을 진행합니다 regr

[(인프런)웹 프론트엔드를 위한 자바스크립트 첫 걸음] 자바스크립트 공부 시작(feat. 강의할인쿠폰) [내부링크]

(하단에 강의할인코드 받아가세요~) 어쩌다보니 프론트엔드 개발을 하게 되었습니다 프론트엔드 쪽을 하려면 기본적으로 html, css, 자바스크립트 지식이 필요하더라구요 html과 css는 옛날옛적에 건드려 본 적이 있는데 자바스크립트는 공부한 적이 없어요 그래서 자바스크립트를 공부하려고 이곳저곳 뒤지면서 강의를 찾아봤습니다 어떤 강의를 들을까 고민이 많았았습니다 강의가 너무 길면 안되고(길면 흥미없어지는 편) 그렇지만 필수적으로 배워야할 내용은 다 배우고 싶고 그리고 기왕이면 재미있는 결과물도 만들어보는 강의면 좋겠다는 생각으로 가지고 열심히 이곳저곳을 뒤져보았죠 그렇지만 저의 까탈스러운 기준에 맞는 강의를 찾는건 꽤나 어려운 일이었어요 이것저것 찾다보니 알고리즘도 안쓰러웠던지 저에게 딱 맞는 강의를 찾아서 띄워주더라구요 그렇게 강의시간이 길지도 않았고(총 강의시간이 6시간 정도밖에 안됨!) 내용을 보니 재미있을 것 같아서 맘에 들었어요 근데 맘에 드는 강의가 강의체험단도 모집한다네

패스트캠퍼스 환급챌린지 57일차 미션(3월 28일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Feature Pyramid Network(FPN) - Image pyramid - Feature Hierarchy <오늘의 강의정리> Feature Pyramid Network(FPN) 다양한 크기의 오브젝트를 detect하려는 아이디어로 만들어졌어요 pyramid 구조 Image Pyramid downsampling을 매번 하면서 생긴 이미지에 object detector를 사용합니다 그래서 연산을 많이 하기 때문에 computationally heavy하다고 합니다 Feature Hierarchy(Feature Pyramid) detectir 를 feture level마다 사용합니다 low level feature에서는 semantic 정보가 부족하고 high level에서는 resolution이 너무 작다는 특징을 가집니다 그래서 이런 문제점을 해결하기 위해 Feature Pyramid Network(FPN)이 제안되었어요 bottom

[99클럽 코테문제1]_&lt;프로그래머스&gt; 직사각형 별 찍기, 핸드폰 번호 가리기 | python풀이 [내부링크]

개발자의 길을 가겠다 마음먹은 이상 코딩테스트는 피할 수 없는 관문입니다 중요한데...진짜 중요한데 요즘 다른 것 공부하다가 코테 준비에 소홀해졌지 뭡니까 이러다가는 나중에 코테 보기 직전에 벼락치기 한다고 난리칠 것 같아서 99클럽이라는 코테 스터디에 들어갔습니다 (추천해준 알고리즘에게 감사를) 정기적으로 온라인 모임을 하면서 문제도 풀고 현직자님의 문제풀이도 볼 수 있어요 그날 주어진 문제를 다른 분들은 어떻게 풀었는지 보면서 공부의지를 다질 수 있는 스터디입니다 풀 수 있는 프로그래머스 문제 난이도에 따라 비기너, 미들러, 챌린저로 스터디 그룹이 나눠집니다 프로그래머스 레벨 1 문제는 풀지만 레벨 2 문제해결에는 오랜 시간이 걸리는 저는 비기너 레벨로 들어갔습니다 게더타운에 모여서 같은 목적을 가진 분들과 문제를 푸는데 이거 참 좋습니다 여럿이 모이니까 그 시간동안은 집중해서 문제를 풀 수 있더라구요 이맛에 스터디합니다 오늘 비기너 레벨로 주어진 문제는 2개입니다 '직사각형 별

패스트캠퍼스 환급챌린지 58일차 미션(3월 29일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - PANet - EfficientDet - DeTR - Deformable DETR <오늘의 강의정리> Path Aggregation Network(PANet) top-down path의 FPN에 bottom-up path를 추가해서 object detection에서 scale robustness를 키우는 방식입니다 프레임워크 FPN backbone에 bottom-up path augemntation을 추가합니다 각 feature에 대해 adaptive feature pooling을 진행합니다 fully-connected fusion으로 mask prediction을 수행합니다 이 방법은 COCO instance segmentation challenge 2017에서 높은 성능을 달성했는데 이를 통해 botton-up connection이 이미지의 더 좋은 features생성에 도움이 된다는 결론을 얻었습니다 EfficientDet Efficie

[99클럽 코테문제2]_&lt;프로그래머스&gt; 부족한 금액 계산하기 | python풀이 [내부링크]

오늘의 파이썬 비기너 문제는 프로그래머스의 부족한 금액 계산하기 문제입니다 코딩테스트 연습 - 부족한 금액 계산하기 새로 생긴 놀이기구는 인기가 매우 많아 줄이 끊이질 않습니다. 이 놀이기구의 원래 이용료는 price원 인데, 놀이기구를 N 번 째 이용한다면 원래 이용료의 N배를 받기로 하였습니다. 즉, 처음 이용료가 100이었다면 2번째에는 200, 3번째에는 300으로 요금이 인상됩니다. 놀이기구를 count번 타게 되면 현재 자신이 가지고 있는 금액에서 얼마가 모자라는지를 return 하도록 solution 함수를 완성하세요. 단, 금액이 부족하지 않으면 0을 return 하세요. 제한사항 놀이기구의 이용료 price : 1 ≤ price ... school.programmers.co.kr 놀이기구를 반복해서 타면 (놀이기구 반복해서 탄 횟수 x 놀이기구 이용료) 만큼의 금액이 누적됩니다 그러면 누적된 금액이 내가 처음 가지고 있는 금액보다 얼마가 넘는지(내가 돈이 얼마나 부족

패스트캠퍼스 환급챌린지 59일차 미션(3월 30일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - visual recognition -semantic(intance) segmentation - IOU - End-to-end CNN arhcitecture <오늘의 강의정리> Visual Recognition 방식 CNN backbone network로 image representation을 통해 feature map을 만들어줍니다 feature map을 어떻게 분석하느냐에 따라 아래와 같이 3가지 방법으로 분리할 수 있습니다 Image-level classification classification + regression(bounding box 찾기) dense pixel-level classification Semantic(Instance) segmentation semantic(클래스 라벨)에 따라 pixel를 grouping하는 방법입니다 다른 segmentation과 비교하기 Image segmentation 다른 색, 다른 재질이라

패스트캠퍼스 환급챌린지 49일차 미션(3월 20일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Contrastive learning - SimCLR - MoCo Version2 - SimCLR Version2 - MaskFeat <오늘의 강의정리> SimCLR MoCo와 비슷한 시기에 나왔고 MoCo보다 성능이 더 향상된 모습을 보여주는 기법입니다 Contribution 다수의 data augmentation을 사용했어요. supervised learning보다 stronger data augmentation에서 이득을 더 보입니다. contrastive cross entropy loss를 사용해요 더 큰 batch 사이즈와 더 큰 training을 합니다. 이런 simple framework로도 contrastive visual representation learning의 좋은 결과를 보여줍니다. 이전 방식들보다 더 좋은 성능을 보이지만 개인 레벨에서는 사용하기 어렵다는 단점이 있습니다(개인이 구비하기 어려운 장비 문제,,) MoCo

패스트캠퍼스 환급챌린지 50일차 미션(3월 21일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - BYOL - Barlow Twins - DINO - Self-Supervised Learning <오늘의 강의정리> BYOL Bootstrap your own latent A New approach of Self-Supervised Learning (NIPS2020) 기존 contrastive learning 방법들은 negative를 잘 선택해야 했어요 다양한negative mining 방법이 필요했고 굉장히 큰 batch 크기로 학습시켜야 했습니다 그리고 image augmentation 조건에 따라 학습 안정성도 불안했어요 그래서 제시한 방법에서는 네트워크 2개(siamese network)를 사용해서 학습했습니다 기존 방법인 simclr보다 batch size나 image augmentation에 대해 덜 민감하다는 결과를 보였습니다. supervised learning으로 pre-train했을 때보다 더 좋은 성능을 보였습니다 Bar

패스트캠퍼스 환급챌린지 51일차 미션(3월 22일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Semi-supervised learning - Entropy minimization - Proxy-label methods - Consistency Regularization - Holistic Method <오늘의 강의정리> Semi-Supervised Learning Entropy Minimization Simi-supervised Learning by Entropy Minization(NIPS 2004)에서 처음 제안되었어요 Decision boundary는 데이터 밀도가 낮은 곳에서 형성될 것이라는 가정에서 시작되었어요 사용한 방법 Prediction을 좀 더 sharp하게 만들어서 entropy를 minimize하고 Psudo-label을 사용했어요 Proxy-Label Methods Unlabeled data point에 label을 달아주는 기법입니다 labeled data에서 벗어나는 샘플은 제대로 된 pseudo-label을

패스트캠퍼스 환급챌린지 52일차 미션(3월 23일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

새로운 챕터에 들어간 기념으로 표지 변경! 오늘의 키워드(자세한 내용은 아래에) - Classification - Object detection - SVM(Support Vector Machine) - Cross validation <오늘의 강의정리> Classification feature를 뽑고 feature의 embedding space에서 decision boundary를 찾는 것 종류 Binary Classification : 2개 그룹으로 데이터를 분리하는 것 Multi-class classification : 여러 그룹으로 데이터를 분리하는 것 과정 object에서 대해 미리 지정된 class가 있습니다 Train data: classifier를 이미지, 라벨 조합으로 학습시킵니다 Testing data: 학습된 classifier로 이미지의 라벨을 예측합니다 Object Detection Detection = Localization + Classification SVM

패스트캠퍼스 환급챌린지 53일차 미션(3월 24일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - HOG(Histogram of Oriented Gradients) - Pedestrain Detection <오늘의 강의정리> HOG(Histogram of Oriented Gradients) 히스토그램 형태로 gradient의 방향성을 구합니다 이미지 gradient 정보를 사용해요 방향성이 사라지는 것을 방지하고 명확한 결과를 얻기 위해 gaussian smoothing은 하지 않습니다 색 정보를 사용할 수도 있지만 필요한 경우에만 사용해요 각 채널의 graedient를 계산하고 그 중에서 최대 gradient를 고릅니다 결과로는 gradient의 방향성과 magnitude를 모두 반영한 histogram을 얻게 됩니다 각 픽셀들에는 gradient magnitude로 weighted vote를 반영됩니다 주요개념 cell 8x8 image area를 의미합니다 orientation histogram 계산에 사용되는 unit area입니다

[딥러닝 개념 8] MLP가 많은 데이터들을 학습하는 '진짜' 방법_SGD, Mini-batch, Epoch [내부링크]

여기서 다루는 키워드 - SGD(Stocastic Gradient Descent) - Mini-Batch - Epoch - Batch Size - Batch Gradient Descent 지금까지 신경망이 학습하는 방법을 살펴봤습니다 최적화 과정에서 Gradient Descent 방법을 사용하지요 그런데 GD라는 말은 거의 안쓰이고 SGD라는 단어를 더 많이(대부분 이 단어) 등장합니다 그 이유는 데이터의 양과 관련이 있습니다 신경망을 학습시킬 때는 굉장히 많은 데이터를 사용합니다 수천 수만 또는 그 이상일 때도 있지요 신경망 학습에 이 많은 데이터를 한번에 학습시킬까요? 한번에 모든 데이터를 학습시키면 한번에 끝나니까 이득이 아니냐! 싶지만 이 방법은 매우매우 비효율적입니다 지금까지의 예시처럼 3-4개의 데이터가 전체라면 한번에 계산하는 것이 이득입니다 그렇지만 수만개의 데이터를 한번에 연산시키면 너무 많은 연산이 필요하게 되어 컴퓨팅 문제가 발생합니다 그.래.서. 이 많은 데이터

[딥러닝 개념 9] 신경망 구조의 문제점_Gradient Vanishing, Overfitting, Covariate Shift [내부링크]

여기서 다루는 내용의 키워드 - Overfitting(과적합) - Gradient Vanishing(기울기 소실) - Covariate Shift(공변량 변화) - Universial Approximation Theorem 지금까지 신경망구조의 학습방법과 최적화방법을 알아보았습니다 층 여러개 쌓고, 역전파로 학습을 하니까 이제 모든 것이 걱정없이 진행될 것 같지요? 여러개의 층(layer)을 붙여 만들어진 신경망구조는 크게 3가지 문제가 생길 수 있어요 첫번째는 Overfitting, 과적합 문제, 두번째는 Gradient Vanishing, 즉 기울기 소멸 문제이고 세번째는 Covariate Shift, 즉 공변량 변화 문제입니다 Overfitting(과적합) 사실 이 문제는 신경망 뿐 아니라 다른 문제에서도 중요한 문제입니다 Overfitting(과적합)은 학습데이터를 너무 잘 학습한 나머지 새로운 데이터는 제대로 판단하지 못하게 되는 현상을 의미합니다 학습한 데이터는 너무 잘

패스트캠퍼스 환급챌린지 54일차 미션(3월 25일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Object detection - Box localization(object proposal) - Selective Search - EdgeBox <오늘의 강의정리> Object Detection은 object의 bounding box를 찾는 것이 목표입니다 single object classification classification + localization(object가 어디에 있는지 bounding box를 찾아줍니다) multiple object object detection: 이미지 한 장에서 여러 object를 찾아냅니다 각 object의 위치와 클래스 레이블을 찾아줍니다 instance segmentation: semantic segmentation + object detection 위치 localize와 segmentation mask도 따주는 역할을 합니다 Deep learning for Object Detection Obj

패스트캠퍼스 환급챌린지 43일차 미션(3월 14일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

43일차 기록을 시작합니다 오늘의 봄 햇살은 너무 따뜻했어요 햇빛 잘 드는 곳에 누워있는 고양이들의 심정이 너무나 이해되는 날이었습니다 계속 따뜻했으면 좋겠다... 오늘의 키워드(자세한 내용은 아래에) - Data augmentation - Color transformation - Spatial Transformation - 다양한 augmentation 기법들 <오늘의 강의정리> Data Augmentation 학습 데이터의 개수를 늘리기 위해 샘플에 각종 변환을 적용하는 기법입니다 방식 Color transformation blur, jitter, noise 등과 같이 샘플의 색을 바꾸는 방식입니다 Spacial Transformation flip, rotation, crop 등과 같이 샘플의 위치를 바꿉니다 detection, segmentation 과 같은 로컬정보 추측 문제에서는 GT도 trainform해서 training 데이터에 넣어줘야 한다는 주의점이 있습니다 다양한

패스트캠퍼스 환급챌린지 44일차 미션(3월 15일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - GAN 기반 augmentation - Single image GAN - GAN-supervised Alignment <오늘의 강의정리> GAN 기반의 Data Augmentation GAN(Generative Advarsarial Networks) 원하는 모델의 distribution을 잘 학습하는 것이 목적입니다 Generative <-> Discriminative(지금까지 배운 모델들이 여기 해당) GAN을 사용한 augmentation을 사면 더 자연스러운 이미지에 대한 modality에 대해 augment 할 수 있습니다 GAN 기반 augmentation 사용한 사례 Medical Image augmentation GAN-based Synthetic Medical Image Augmentation for increased CNN performance in Liver Lesion Classification(NIPS 2017) 논문에서

패스트캠퍼스 환급챌린지 45일차 미션(3월 16일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - AutoML Base Augmentation - AutoAugment - PopulationBase Augment - Fast AutoAugment - Faster AutoAugment - Rand AutoAugment - UniformAugment - Trivial Augment <오늘의 강의정리> AutoML 기반 Data augmentation 이전 방법들 rule 기반 augmentation: augmentation 1개를 적용했어요 GAN 기반 augmentation: realistic한 이미지를 만들기 위해 학습된 GAN을 사용했어요 <1> AutoAugment RNN컨트롤러를 통해 augmentation policy를 뽑습니다 이후 네트워크를 학습시켜 validation accracy를 reward로 policy gradient를 사용한 강화학습을 합니다 과정 어떻게 학습할 것인지에 대한 trategy S를 정합니다 학습해서 va

[딥러닝 개념 7] 최적화(Optimization) 알고리즘_Gradient Descent, Momentum, AdaGrad, RMSProp, Adam [내부링크]

여기서 다루는 키워드 - 최적화(Optimization) 알고리즘 - 미분 / Gradient(기울기) - Gradient Descent(경사하강법) - Local minimum / Global minimum - Momentum - AdaGrad - RMSProp - Adam 딥러닝에서는 '최적화'하는 것이 중요합니다 오늘은 '최적화'에 대해 다뤄보겠습니다 최적화(Optimization) 가능한 모든 해 중에서 최적의 해를 찾는 것을 의미합니다 목적함수 f(x)에 대해서(여기서는 손실함수를 의미합니다) 목적함수가 최소가 되게 하는 x를 찾는 작업이라고 생각하면 됩니다 최적의 값을 위한 방법으로는 2가지가 있습니다 함수의 형태와 수식을 알 때 사용하는 분석적 방법, 함수의 형태와 수식을 모들 때 사용하는 수치적 방법이 있어요. 1. 분석적 방법(Analytical method) 함수의 전체 형태와 수식을 알 때 사용하는 수치적인 해석방법입니다. 함수의 식을 안다면 미분을 하면 바로 최

패스트캠퍼스 환급챌린지 46일차 미션(3월 17일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Unsupervised Learning - Self-Supervised Learning - Exemplar <오늘의 강의정리> Unsupervised learning 딥러닝 모델 학습을 위해서는 많은 레이블이 필요하지만 이런 레이블링 없이도 모델을 학습시키는 것이 필요합니다. 이를 Unsupervised learning이라고 하는데 하위에 self-supervised learning이 포함됩니다 예시 T-SNE: embedding visualization을 위한 차원축소를 의미합니다 Auto encode : latent space를 학습합니다 Self- Supervised Learning(SSL) 기존 모델의 단점 Supervised Learning: 레이블 데이터가 많아야 하고, 학습되지 않은 데이터를 잘 예측하지 못합니다 Reinforcement Learning: 실패해도 다시 시도하면 되지만 현실에서는 실패하면 치명적일 수 있어서 적용이

패스트캠퍼스 환급챌린지 47일차 미션(3월 18일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

3월도 벌써 반이 지나갔습니다 내일 또 비가 온다고 하네요 비가 온 후에는 추워진다고 해요 그동안 따뜻했는데 아쉽습니다 이번에도 감기 조심해야겠습니다 오늘의 키워드(자세한 내용은 아래에) - Self-supervised learning -context prediction - jigsaw puzzles - Counting - Multi-tasks - Rotation prediction(RotNet) <오늘의 강의 정리> Pretext tasks기반 Self-supervised learning Context Prediction context prediction 을 통해 examplar의 단점을 해결하려한 방법입니다 3x3개의 패치를 뜯어서 가운데를 기준으로 1-8번을 할당하고 선택한 패치가 몇번째 패치인지 예측하도록 모델이 학습되었습니다 사람이 예측하기에는 어렵지만 machine을 학습시키면 이미지 전반의 representation을 배울 수 있습니다 한계 모델이 위치정보를 여러 방법(

패스트캠퍼스 환급챌린지 48일차 미션(3월 19일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘의 키워드(자세한 내용은 아래에) - Contrastive Learning - NPID(Non Parametric Instance Discrimination) - MoCo(Momentum Contrast) <오늘의 강의정리> Contrastive Learning 기반 SSL Contrastive Learning이란 negative를 잘 학습하게 하여 이미지의 정보를 잘 추출하게 하는 것 Non Parametric Instance Discrimination(NPID) Class를 구분하는 것이 의미가 있냐는 의문을 제시한 방법입니다 Class를 구분하는 대신에 Instance-level discrimination을 하면 된다는 방법입니다 방법 Non paramametric softmax classifier 인스턴스 특성학습을 위해 feature vector v르,ㄹ 사용합니다 noise-contrastive estimation(NCE) NCE 형태의 contrastive loss를

패스트캠퍼스 환급챌린지 42일차 미션(3월 13일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

42일차 기록을 시작합니다 햇빛이 굉장히 따스워요 이제서야 봄이 온 것 같습니다 그런데 아직도 바람은 좀 찹니다 영상 11도라는데 아직 춥습니다 따뜻한 봄은 4월은 되어야 오려나 봅니다 오늘의 키워드(자세한 내용은 아래에) - Unsupervised metric learning - t-SNE <오늘의 강의정리> Unsupervised Metric Learning 'Mining on Manifolds:Metric Learning without Labels (CVPR 2018)' 이 논문에서 제시된 방식입니다 Motivation 라벨이 없는 데이터로도 metric learning을 해서 embedding space를 만들 수도 있을 듯 기존 supervised metric learning으로 학습된 embedding space는 overfitting우려가 있다 제시한 방법 pre-trained embedding에서 라벨 없는 이미지 모음들로 fine-tuning을 합니다 manifold

강화학습의 보상을 계산해보자_Q function, Bellman Equation [내부링크]

coursera에서 deep learning.ai Andrew Ng 교수님의 [Unsupervised Learning, Recommenders, Reinforcement Learning] 강의를 듣고 정리한 내용입니다 여기서 다루는 키워드 - State Action value function - Q function - Bellman Equation 이미 최적의 정책(optimal policy)를 가지고 있다고 할 때, 어떤 행동을 한 후에 최적의 정책에 따라 행동한 후 return값을 계산해주는 함수가 있습니다 그 함수를 State Action value function, 다른말로 Q function이라고 부릅니다 State action value function: Q(s, a) 사용자가 처한 상태(s), 그 상태에 할 수 있는 행동(a) 어떤 상태에서 어떤 행동을 했을 때, 최적의 정책에 따라 Return 값을 계산하는 함수입니다 Return값 계산 방법 state s에서 시작합니

강화학습이 무엇인지 알아보자 [내부링크]

coursera에서 deep learning.ai Andrew.Ng 교수님의 [Unsupervised Learning, Recommenders, Reinforcement Learning] 강의를 듣고 정리한 내용입니다 강화학습은 말 그대로 '강화'라는 학습입니다 스스로 학습을 통해 강화된다니 매력적이지 않나요 그래서 오늘부터 강화학습에 대한 정리를 시작하도록 하겠습니다 강화학습 예시로 시작해보기 < 거꾸로 비행하는 헬리콥더 > 강화학습의 예시로는 거꾸로 비행하는 헬리콥터가 있습니다 (아래와 같은 영상처럼 비행합니다. 15년전 영상이라서 화질이 그닥 좋지는 않습니다) 헬리콥터는 스스로 거꾸로 비행하는 방법을 터득했습니다 헬리콥터가 거꾸고 비행하는 방법을 어떻게 터득했느냐가 중요합니다 헬리콥터는 어떻게 거꾸로 비행하는 방법을 알았을까 (1) - 지도학습 첫번째로 사용할 수 있는 방법은 지도학습입니다 헬리콥더가 이런 위치에 있으려면 이렇게 조종하는 것이 이상적이다라고 알려주는 방식이지요

패스트캠퍼스 환급챌린지 41일차 미션(3월 12일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

41일차 기록을 시작합니다 오늘은 비가 왔어요 매주 비가 최소 한번씩 오는 것 같은데 덕분에 가뭄이 들지는 않을 것 같습니다 오늘 비가 왔으니 내일은 춥겠네요 밖은 추운데 지하철에 들어가면 더우니 딱 감기걸리기 너무 적합한 상황입니다 자나깨나 감기조심하시길 바랍니다 오늘의 키워드(자세한 내용은 아래에) - Image clustering - Mahalanobis Distance - K-means clustering - EM 알고리즘 <오늘의 강의정리> Image Clustering Clustering이란? 데이터들의 특성을 고려해 데이터 집단( cluster)을 정의하고 데이터집단의 대표할 수 있는 대표점을 찾는 것을 의미합니다 feature extraction이 잘 되어 있어야 잘 작동합니다 구현: scipy 사용 Image clustering 방법 K-means, Mahalanobis distance, Unsupervised learning을 사용합니다 Mahalanobis dis

강화학습에서 최대의 보상얻기_ state, action, reward, return, discount factor, policy [내부링크]

coursera에서 deep learning.ai Andrew Ng 교수님의 [Unsupervised Learning, Recommenders, Reinforcement Learning] 강의를 듣고 정리한 내용입니다 여기서 다루는 내용의 키워드 - State - Action - Reward - Discount factor - Return - Policy Mars Rover Example 로 알아보는 강화학습의 주요 개념들 화성탐사선이 특정 위치(상태, state)에 있다고 가정해요 탐사선이 갈 수 있는 위치는 6개이고 각 위치를 state라고 합니다 탐사선은 4번 위치(state 4)에 있습니다 1번 위치(state 1)에는 화성의 흥미로운 부분이 있지만 거리가 좀 멀어요 6번 위치(state 6)에는 관심은 있는데 그다지 흥미롭지는 않은 부분이 있어요. 그렇지만 가깝죠 탐사선이 1번 위치(state 1)가 더 가치있다고 판단하도록 하려면 보상(reward)을 많이 주면 됩니다 s

[딥러닝 개념 6] 신경망은 어떻게 학습될까_ Feed Forward, Back Propagation [내부링크]

여기서 다루는 내용의 키워드 - 학습 - Feed Forward - Back propagation - 편미분 - 연쇄법식(Chain-rule) - Gradient Descent(경사하강법) - SGD(Stocastic Gradient Descent) - Mini-Batch - Epoch 여러 층(layer)을 쌓아서 만든 신경망이 어떤 문제점을 가지고 있는지 알아보기 위해서는 먼저 신경망이 어떻게 학습을 하는지 알아야합니다 신경망의 학습 방법은 방향에 따라 2가지로 구분할 수 있습니다 신경망의 Input -> Hidden -> Output 순으로 진행되는 Feed Forward방식 Output -> Hidden -> Input 방향으로 진행되는 Back propagation 방식 이렇게 두 방식이 있습니다 두 방식 모두 행렬로 연산된다는 특징을 가집니다 Feed Forward와 Back propagation은 번갈아가면서 학습(training)을 진행합니다 학습과정을 간단하게 정리하

패스트캠퍼스 환급챌린지 39일차 미션(3월 10일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

39일차 기록을 시작합니다 오늘은 일요일입니다 어김없이 매주 반복하는 말이죠 왜 내일은 월요일인가 내일은 날씨가 더 따뜻해진다고 합니다 그렇지만 아침과 저녁에는 춥겠죠;;; 감기 걸리기 잠 좋은 날씨입니다 아침에 나가는 저는 내일도 패딩으로 싸매고 나가야겠습니다 오늘의 키워드(자세한 내용은 아래에) - Landmark Recognition - DELF - Google landmark dataset - Dense localized feature extraction - Attention-based keypoint selection 오늘 사진, 유난히 뽀얗군요 <오늘의 강의정리> Landmark Recognition Visual place recognition과 같은 세팅입니다 그렇지만 더 많고 다양한 장소를 사용하지요 Large-scale image retrieval 기존의 instance-based image retrieval의 문제점 공통 규격 정립도 안되어 있음 데이터셋 수도 많이

패스트캠퍼스 환급챌린지 40일차 미션(3월 11일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

드디어 40일차가 되었습니다 오늘은 다른 날과 특별한 점은 일차의 앞자리가 바뀌었다는 점이에요 앞자리가 '4'로 바뀌었습니다 이 챌린지가 얼마 남지 않았다는 것을 의미해요 마지막 스퍼트, 한 번 잘 내보겠습니다 어떤 것을 배우면 배울수록 그와 관련된 다른 것들도 배우고 싶어져요 이런 생각으로 듣겠다고 저장한 강의만 수십개... 이럴때마다 구독서비스를 신청한 것이 정말 신의 한수라고 생각하고 있습니다 (이 강의들을 하나씩 모두 샀다면... 내 통장은...) 언제 다 들을 수 있을지는 모르겠지만 최소한 일주일에 한개씩 도장깨기를 해야겠습니다 오늘의 키워드(자세한 내용은 아래에) - mAP(mean average precision) - AP(average precision) - AP Loss <오늘의 강의정리> mAP Mean Average Precision Average Precision을 '평균정밀도'라고 부르니 mAP는 '평균평균정밀도'이려나요... 이미지 retrieval 평가의

패스트캠퍼스 환급챌린지 33일차 미션(3월 4일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

33번째 기록을 시작합니다 오늘부터는 새로운 챕터의 강의를 듣게 되었어요 새로운 챕터에 들어간 기념으로 표지 스타일도 바꿔보았습니다 곧 봄이고 그러니까 화사하고 밝은 스타일로 만들어봤어요 이번 챕터의 주제는 표현학습입니다 역시 이번 챕터도 만만치 않게 강의가 많습니다 열심히 들어서 얼른 마쳐봐야겠습니다 오늘의 키워드(자세한 내용은 아래에) - Representation Learning - Metric - Similarity - Classical metric learning - Euclidean distance - Mahalanobis Distance <오늘의 강의정리> Representation Learning 관련주제들 Metric Learning : 유사도를 어떻게 학습할 것인지에 대한 내용 Image clustering: 비슷한 데이터끼리 군집하는 것 Data Audgmentation Self-Supervised Learning / Semi-Supervised Learning

[딥러닝 개념 5] Multi-Layer Perceptron(MLP)와 신경망 구조_Node, Edge, Layer, DNN [내부링크]

여기서 다루는 키워드 - MLP(multi-layer perceptron) - 신경망(Neural Network) - Node, Edge - Layer - Fully Connected Layer(Dense Layer) - 얕은 신경망(Shallow Neural Network) - 심층신경망(Deep Neural Network, DNN) Perceptron을 하나만 쓰는 단일 퍼셉트론을 저번에 다뤄봤습니다 단일 perceptron만으로는 해결못하는 문제가 많았어요 대표적인 것으로 논리게이트 중에서 XOR 게이트만 해도 단일 퍼셉트론으로 구현이 불가능했습니다 그래서 perceptron으로 논리게이트 구현할 때 XOR게이트 구현은 perceptron 2개를 사용했었지요 그때 이미 MLP의 개념을 사용했어요 (뭔 내용인지 궁금하면 아래 링크 참고) [딥러닝 개념 2] Perceptron으로 논리 게이트 구현하기(MLP의 필요성) 여기서 다루는 내용의 키워드 - Decision Boundar

패스트캠퍼스 환급챌린지 34일차 미션(3월 5일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

34일차 기록을 시작합니다 오늘은 개구리가 깨어나는 날입니다 경칩이라는 것이에요 봄이 시작된다는 의미겠지만 오늘같은 날에 개구리가 깨어나면 다들 얼어버릴 것 같아요 봄이 왔지만 여전히 춥습니다 겨울옷 집어넣으려 했는데 한동안은 옷장 속에서 곱게 모셔놔야겠습니다 오늘의 키워드(자세한 내용은 아래에) - Deep Metric Learning - Siamese Network - Triplet Network - L2 normalization <오늘의 강의정리> Deep Metric Learning Deep Neural Network(DNN)을 사용하는 방식입니다 하나의 뉴럴 네트워크에 data representation과 decision maker가 있습니다 data로부터 representation을 학습합니다 레이어들을 지나면서 만든 feature를 classifier로 사용해서 decision making을 하는 특징을 가집니다 data representation함수인 f를 DNN을 학

패스트캠퍼스 환급챌린지 35일차 미션(3월 6일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

기록을 시작한지 어느새 35일이 되었습니다 이정도 되었으면 반을 들었겠지! 싶었지만 아직 20%밖에 안들었다네요 지금들은 양의 5배를 들어야 완강이라니 하루에 듣는 양을 늘려야하나 진지하게 고민중입니다 그래도 뒤쪽으로 갈수록 재미있어지니까 더 들어야겠다는 다짐을 합니다 얼른 프로젝트하고 싶다! (라고 아직 개념도 다 못들은 사람이 외칩니다) 오늘의 키워드(자세한 내용은 아래에) - Sample Selection - Uniform Sampling - Distance weighted sampling - Margin-based loss <오늘의 강의정리> Sample Selection Deep metric learning 에서 sample selection은 중요합니다 Sample selection이 필요한 이유 두 쌍이나 세쌍씩을 봐야 하느데 데이터셋에서 이 모든 경우를 볼 수는 없어요 10개의 샘플에서 두 쌍씩 보면 일단 100번을 봐야 해요 세 쌍씩 보면 1000번을 봐야합니다 이렇

패스트캠퍼스 환급챌린지 36일차 미션(3월 7일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

36일차가 되었습니다 오늘 강의를 끝으로 metric learning 강의를 모두 완료하게 되었습니다 내일부터는 새로운 주제의 강의를 듣게 되겠군요 요즘들어 날씨가 잠으로 변덕스럽습니다 평일에는 따뜻한 편인데 주말에는 너무 추워요 이 루틴이 매주 반복되고 있습니다 주말에 추우니 실내 명소들에 사람들이 많겠네요 역시 집이 최고입니다 주말 내내 한발자국도 나가지 않아야겠습니다 오늘의 키워드(자세한 내용은 아래에) - Quadruplet Network - Quadruplet Rank Loss - Nearest Neighbor Search - DML Applications - Image Retrieval - Face Verification - Person re-identification - Online visual tracking - Unsupervised Representation Learning <오늘의 강의정리> Quadruplet Network 이전에 했던 triplet만으로는 re

패스트캠퍼스 환급챌린지 37일차 미션(3월 8일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

37일차 기록을 시작합니다 오늘 지금까지 한 챌린지 중간점검 결과가 나왔는데 다행스럽게도 아직까지는 성공입니다 이렇게 반을 잘 왔으니 남은 반도 잘 해서 백프로 환급, 한 번 받아보겠습니다 어제로 metric learning의 개념들에 대한 강의를 모두 들었습니다 오늘부터 듣는 강의는 deep metric learning의 적용케이스들입니다 오늘의 키워드(자세한 내용은 아래에) - FaceNet - Image Retrieval - Deep metric learning benchmarks <오늘의 강의정리> Face recognition(FaceNet) 논문 " FaceNet: A unified embedding for face recognition and clustering", CVPR 2015 Motivation 사람이 같으면 correlation이 같아야하는데 포즈가 다르면 다른 사람으로 인식하게 됩니다 같은 사람이라는 similarity를 높이고 같은 포즈의 다른 사람이라면 s

패스트캠퍼스 환급챌린지 38일차 미션(3월 9일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

38일차가 되었습니다 벌써 3월의 첫째주가 다 지나갔네요 주말은 매번 참 짧은 것 같습니다 날씨가 많이 따뜻해졌습니다 역시 봄이 온 것이 맞는 것 같아요 그렇지만 아침 저녁으로는 아직 많이 추우니 아직은 겨울옷을 넣으면 안되겠습니다 오늘의 키워드(자세한 내용은 아래에) - NetVLAD - Visual place recognition - VLAD - Place Recognition Benchmark <오늘의 강의정리> Visual Place Recognition 주어진 쿼리 이미지에 해당하는 위치의 이미지를 검색하는 것 동일한 장소이지만 각도가 다르거나, 시간대가 다르거나 등의 차이가 있어도 동일한 장소라고 찾아주는 방법입니다 검색시스템, 자율주행, AR 등에 적용됩니다 사용방법 Instance level image retrival방식을 사용합니다 예전에는 local descriptor를 사용했지만 여기서는 Iamge descriptor를 사용합니다 NetVLAD (CVPR 2016

패스트캠퍼스 환급챌린지 27일차 미션(2월 27일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

벌써 27일이 되었습니다 이틀후면 2월이 끝나는군요 이번주에는 빨간 날도 있네요 별다른 일이 있지는 않지만 빨간날은 설레는 날입니다 그날엔 집에서 강의를 많이 듣도록 해야겠습니다 오늘의 키워드(자세한 내용은 아래에) - MobileNet-v1 - ShuffleNet - MobileNet-v2 - MobileNet-v3 <오늘의 강의정리> MobileNet-v1 (2017) EfficientNet 중 하나입니다 기존 CNN의 경량화를 위해 제안된 방법입니다 Depthwise-separable convolution을 사용합니다 channel-wise feature extractor와 spatial feature extractor 가 분리된 형태입니다 Depthwise convolution과 Pointwise Convolution을 합친 형태입니다 Separable convolution은 1x1 convolution입니다 다른 모델들과 비교했을 때 정확도도 향상되고 parameter수도

패스트캠퍼스 환급챌린지 28일차 미션(2월 28일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 2월 28일입니다 그리고 28일차가 되었지요 기록을 시작한지 곧 한달이 됩니다 한달이 거의 채워졌다는 것이 좋기는 하지만 지금 가장 좋은 건 이틀후에 빨간날이 있다는 것입니다 금요일의 빨간날? 참으로 귀합니다 내일까지 잘 지내보도록 하겠습니다 오늘의 키워드(자세한 내용은 아래에) - Vision Transformer - Attention - Self-attention - Soft-attention - Hard-attention - Multi-head self attention - Cross attention - Stand-alone self sttention <오늘의 강의정리> Vision Transformer NLP(자연어처리)에서 시작되었지만 image task classification에서도 좋은 성능을 볼 수 있습니다 CNN 대체로 많이 사용해요 Attention block 을 사용해서 여러 채널을 쌓았기 때문에 convolution보다 넓은 영역을 볼 수 있게 되었습

패스트캠퍼스 환급챌린지 29일차 미션(2월 29일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 2월 29일입니다 올해는 윤년이라 2월이 29일까지 있네요 4년 주기로 돌아오는 것이라서 다음 2월 29일은 4년 후에 보겠네요 내일은 드디어 빨간날입니다 빨간날은.. 늦잠을 잘 수 있어요 하루종일 집에 있을 수 있다니 너무나 좋습니다 집에서 transformer 부분을 모두 들어버리겠다는 크나큰 다짐을 합니다 오늘의 키워드(자세한 내용은 아래에) - Transformer - Attention is All you Need - self attention - multi-head attention - positional encoding <오늘의 강의정리> Transformer self-attention 구조를 중접해서 만드는 sequence modeling을 의미합니다 self-attention : 다른 position에 대해서 그 값이 얼마나 중요한지에 대해 자기 스스로의 weight를 계산할 수 있습니다 2017년에 발표된 'Attention is All you Need' 라는

패스트캠퍼스 환급챌린지 30일차 미션(3월 1일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 3월 1일입니다 벌써 기록을 시작한지 30일이 되었네요 한달동안 꾸준하게 한 나, 꽤 기특해요 오늘의 키워드(자세한 내용은 아래에) - Vision Tansformer(ViT) - Transformer encoder - Patch Embedding - Position Embedding - Masked patch prediction <오늘의 강의정리> Vision Transformer(ViT) NLP에서 사용되던Transformer는 vision에서 Vision Transfer로 사용됩니다 Transfer와 차이점은 embedding을 16x16 words로 사용했다는 점입니다 2021년에 발표된 'An Image is Worth 16x16 word Transformers for Image Recognition at Scales'라는 논문에서 제시된 개념입니다 input token으로 이미지 patch의 linear embedding(learnable 1D position em

패스트캠퍼스 환급챌린지 31일차 미션(3월 2일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

31일차 기록을 시작합니다 오늘은 날씨가 좋은 것도 아니고 그렇다고 안좋다고 할 수도 없는 날씨였어요 해가 쨍쨍한데 눈이 오는 날씨라니... 역시 날씨가 좋지 않을때는 집에 있는 것이 최고입니다 오늘의 키워드(자세한 내용은 아래에) - Swin Transformer - Shifted Window <오늘의 강의정리> Swin Transformer 2021년에 발표된 논문인 'Hierarchical vision transformer using shifted windows'라는 논문에서 제시된 방법입니다 인기있고 많이 사용되는 모델입니다 swin은 'shifted window'를 의미합니다 shifted window 기존의 방식과 다르게 window partitioning을 다른 형태로 잘라줍니다 기존에는 일정한 크기로 잘라줬다면 shifted window에서는 local window내의 visual 관계도 학습할 수 있도록 잘라집니다 구조 Linear Normalization -> W-

패스트캠퍼스 환급챌린지 32일차 미션(3월 3일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

32일차가 되었습니다 그리고 오늘은 일요일입니다 벌써 내일이 월요일이라니 역시 주말은 시간이 너무 빨리갑니다 오늘을 기점으로 챕터3이 끝났습니다 한번씩 다 듣기는 했지만 아직 다 모르기에 다시 여러번 봐야겠습니다 내일부터 챕터4인 표현학습이 시작됩니다 그리고 새 챕터에 들어간만큼 새 표지를 가져와보겠습니다 오늘의 키워드(자세한 내용은 아래에) - Swin Transformer V2 - Post normalization - Scaled cosine attention - Continuous relative porition bias <오늘의 강의정리> Swin Transformer V2 2022년에 accept된 논문입니다(Swin Transformer V2 : Scaling Up Capacity and Resolution) Motivation 이미지 resolution이 더 크게 들어올 수 있고 기존의 모델을 fine tuning 했을 때 stable하지 않게 gradient가 흘러서

[딥러닝 개념 4] 손실함수(Loss Function)_MSE, MAE, RMSE, Cross Entropy Error [내부링크]

여기서 다루는 내용의 키워드 - 손실함수 - 학습 - 회귀 - MSE(평균제곱오차) - RMSE(평균제곱근오차) - MAE(평균절대오차) - One-hot Encoding - Cross Entropy Error(교차 엔트로피 오차) 네트워크를 학습한 후에 네트워크로 예측한 결과와 정답이 얼마나 잘 맞는지 비교하기 위한 방법이 필요해요 정답에 최대한 가깝게 예측하는 것이 목적이니까요 그래서 이때 사용하는 것이 바로 손실함수입니다 손실함수(Loss Function)란? 네트워크의 출력값과 정답과의 비교를 해주는 함수입니다 학습 중에 얼마나 못하는지를 의미하기 때문에 값이 작을수록(0에 가까울수록) 좋습니다 지도학습(입력값에 대해 정답이 있는 학습)알고리즘에서는 반드시 필요한 함수입니다 정답과 예측값을 비교해야 하니까요 보통 미분 가능한 함수를 사용합니다 최적화 기법들이 미분을 기반으로 한 방법이 많기 때문입니다 최적화 기법들을 효율적으로 사용하기 위해 미분가능한 함수를 손실함수로 많이

패스트캠퍼스 환급챌린지 25일차 미션(2월 25일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

벌써 25일이라니..... 2월이 다 가버렸네요 요즘들어 시간이 굉장히 빨리 지나가는 것 같습니다 하루가 24시간이 아니라 48시간이면 좋겠다는 생각이 더 많이 드는 오늘입니다 오늘의 키워드(자세한 내용은 아래에) - DenseNet - Channel-wise concatenation -SENet - Squeeze and excitation - EfficientNet <오늘의 강의정리> DenseNet Dnese Connection이 추가되어서 ResNet보다 효과적입니다 ResNet과 차이점 ResNet skip connection을 사용한 element wise addition DenseNet 더 많은 connection을 추가한 Channel wise cancatenation channel wise concatenation을 사용하면 정보자체가 보존되기 때문에 gradient flow가 유지되고 효율적 학습이 가능합니다 그리고 채널이 중첩되기 때문에 parameter가 많아지지

[딥러닝 개념 3] 활성함수(Activation Function) _ 계단함수, Tanh, Sigmoid, Softmax, ReLU, Leaky ReLU, ELU, ReLU6 [내부링크]

여기서 다루는 내용의 키워드 - 활성함수(Activation Function) - 비선형성(non-linear) - 계단함수 - Tanh - Sigmoid - Softmax - ReLU - Leaky ReLU - ELU, ReLU6 꼭 알아야 할 중요한 개념 중 하나가 바로 활성함수(Activation Function)입니다 계산된 최종값을 실제 결과로 출력할 때 얼마나 활성화시킬지 또는 활성화시킬지 말지 여부를 정해주는 역할을 합니다 활성함수는 퍼셉트론의 출력에 의미를 부여해주고 여러 layer(층)을 쌓았을 때 비선형(non-linear)성을 부여하는 함수입니다 만약에 활성함수를 사용하지 않는다면? 하나의 층을 지나면 wx+b 형태의 결과가 나오게 됩니다 그 다음 층에서는 이전층의 결과가 입력으로 들어가서 가중치가 곱해지고 bias가 더해집니다 그 다음층에서도 같은 과정이 반복되겠죠 활성함수 없이 이 과정이 반복되면 결국 ax+b 형태의 하나의 선형함수가 되어버립니다 열심히 층을

패스트캠퍼스 환급챌린지 26일차 미션(2월 26일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 26일차입니다 행복한 월요일이네요^^ 어째 배우면 배울수록 해야하는 것이 더 많아지는 것 같다는 생각을 하며 오늘도 강의를 듣습니다 오늘의 키워드(자세한 내용은 아래에) - Efficient CNN - SqueezeNet - Shift - Active Shift - Quantization <오늘의 강의정리> Efficient CNN Small Model을 만들어낼 때 Efficient CNN이 필요합니다 Small Model은 적은 parameter를 가지고, 적은 계산량으로 비슷한 성능을 내는 모델을 의미합니다 Small Model의 장점 computing inference에 드는 에너지를 매우 줄여줍니다 data processing과 data gathering 방식을 적게 해서 상용화가 가능하게 만들었다는 특징이 있습니다 모듈을 업데이트 하려면 메모리, cpu, gpu operation이 필요합니다. Small model은 이런 업데이트가 빨리 되게 합니다 CNN 모델 전

패스트캠퍼스 환급챌린지 22일차 미션(2월 22일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

벌써 22일차가 되었습니다 습관이 잡힌다는 21일이 무사히 지나갔습니다 이제는 습관이 잡혔겠죠(믿는다 내자신!) 오늘의 키워드(자세한 내용은 아래에) - Overfitting - Dropout - Weight Decay - Early Stopping - Finetuning - SGD - SGD variation <오늘의 강의정리> Overfitting training 데이터에 너무 fitting이 되어서 일반화가 되지 않는 형상 training data가 network parameter보다 많아야 overfitting을 피할 수 있어요(이론적으로...) 그렇지만 이미지만 해도 억이 넘는 parameter가 있는데 현실적으로 이보다 많은 데이터를 모으기는 쉽지 않습니다. 그래서 생각보다 overfitting이 잘 일어나는 거예요 그래서 overfitting을 피하기 위해 몇가지 조작을 해야합니다 Tricks to avoid overfitting Dropout 히든 레이어의 뉴런을 랜덤

[딥러닝 개념 2] Perceptron으로 논리 게이트 구현하기(MLP의 필요성) [내부링크]

여기서 다루는 내용의 키워드 - Decision Boundary - 단층 퍼셉트론 - OR gate - AND gate - NAND gate - 다층 퍼셉트론 - XOR gate 앞서 얘기한 퍼셉트론으로 논리 게이트를 구현할 수 있습니다 단층 퍼셉트론으로 구현할 수 있는 게이트도 있고, 단층 퍼셉트론으로 구현할 수 없고 다층 퍼셉트론으로 구현할 수 있는 게이트도 있습니다 단층 퍼셉트론으로 OR gate, AND gate, NAND gate를 구현할 수 있고, XOR gate는 단일 퍼셉트론이 아닌 다층 퍼셉트론으로 구현할 수 있습니다 단일 퍼셉트론(퍼셉트론 1개)으로 구현할 수 있는 게이트 = 하나의 직선으로 분류할 수 있는 경우 OR gate 입력 중에서 한쪽이 true면 무조건 true가 되는 OR gate입니다. 퍼셉트론을 통해 주어진 입력을 분류하는 직선을 그을 수 있는데 이 직선을 Decision Boundary라고 합니다 AND gate 입력이 모두 참인 경우에만 참이 나

패스트캠퍼스 환급챌린지 23일차 미션(2월 23일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

23일차 기록을 시작합니다 오늘은 금요일입니다 주말이 시작되기 하루 전이죠 주말은 매주 돌아오지만 올때마다 설렙니다 어제까지 펑펑오던 눈이 그치고 오늘은 하늘이 맑길래 봄이 오는가보다 했지만 날씨는 전혀 봄이 아니었어요 추워서 얼어죽는 줄 알았어요 그러니 3월까지는 다들 옷을 잘 입도록 해요 오늘의 키워드(자세한 내용은 아래에) - CNN Architecture - CNN - LeNet-5 - ImageNet - AlexNet - VGG <오늘의 강의정리> CNN 아키텍처는 INLVRC(ImageNet Large Scale Classification Challenge)에서 발전을 시작했어요 이 챌린지에서 2012년에 AlexNet이라는 아키텍처가 발표되었는데 AlexNet을 시작으로 딥뉴런 네트워크가 확 발전하게 되었어요 이전에는 20%가 넘던 에러가 AlexNet에 의해 16.4%로 확 낮아지게 되었어요 이후 CNN 이 더욱 발전하면서 더 복잡해진 구조의 모델들이 나타나게 되었고

패스트캠퍼스 환급챌린지 24일차 미션(2월 24일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

어느덧 24일차가 되었습니다 이번주가 2월의 마지막 주말이더군요 시간이 정말 빨리가는 것 같습니다 벌써 3월이라니... 이러다가 올해도 후딱 가겠는걸요 주말이기도 해서 오랜만에 밖에 나가봤는데 사람이 정말 많았어요 너무 많아서 기가 빨리길래 아 얼른 집가서 강의나 들으라는 계시인가 싶어 빠르게 집으로 돌아왔습니다 역시 강의 듣는 것이 남는 겁니다 오늘의 키워드(자세한 내용은 아래에) - ResNet - Skip connection - Batch normalization <오늘의 강의정리> ResNet ResNet은 Neural Network를 깊게 만드는데 중요한 역할을 한 기법입니다 덕분에 더 큰 receptive fields 를 갖게 되었고 non-linearlity도 더 갖게 되었어요 AlexNet은 8개 레이어, VGG는 19개 레이어, ResNet은 152개 레이어를 가져요 깊은 네트워크가 가진 키존 문제들 Backward Gradient Vanishing 문제 Forwar

패스트캠퍼스 환급챌린지 15일차 미션(2월 15일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

15일차 기록을 시작합니다 이번주는 월요일까지 휴일이었어서 그런지 생각보다 한주가 짧은 것 같아요 (아니 왜 벌써 목요일...) 이제 강의에서 이전 강의에서 들었던 개념들이 겹치고 있습니다 이렇게 반복적으로 보게 되니 더 이해가 잘 되네요 그렇지만 아직 수식 부분은 어렵습니다 수식 이해... 쉽지않아.... 오늘의 키워드(자세한 내용은 아래에...) - convolution - smoothing - gradient filters - padding - edge - corner - Harris corner detection 이제는 강의 들어면서 손필기를 하고 있는데 들으면서 쓰다보니 글씨가 영 별로입니다 들은 내용을 빨리 쓰다보니 글씨 상태가 영 좋지 않아요 나도 빨리 쓰면서 글씨도 잘쓰고 싶다... <오늘의 강의정리> Convolution Convolution 커널이 이미지의 각 픽셀과 곱해진 후 그의 합을 구하는 방식으로 convolution이 진행됩니다 Convolution연산 각

패스트캠퍼스 환급챌린지 16일차 미션(2월 16일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

16일차 금요일입니다 오늘 강의의 주제는 blob입니다 이거 하나만?이라고 생각할수도 있지만 Blob은 이곳저곳에서 많이 보이는 개념인만큼 좀 많이 중요하기 때문에 하나의 주제에 오늘은 집중을 해보았습니다 강의가 점점 수식과 영어의 향연이 되어가고 있습니다 한국어 강의인데 영어강의인 그런 느낌이에요 한국어는 거의 거드는 수준입니다 주요 개념들이 모두 영어라서 어쩔 수 없는 것이겠죠 오늘의 키워드(자세한 내용은 아래에) - Blob - Gaussian - Laplace of Gaussian <오늘의 강의 정리> Blob 주변보다 밝거나 어두운 부분을 의미합니다 Blob detection 과정 smooth image Laplacian of Gaussian 또는 difference of Gaussian을 적용 최적의 크기(optimal scale)와 orientation parameters를 찾는다 예전에 했던 Edge Detection 방법 이미지에 Gaussian 필터를 동과시키면 e

패스트캠퍼스 환급챌린지 17일차 미션(2월 17일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

17일차 기록을 시작합니다 고전적인 컴퓨터 비전 개념중에서 SIFT에 대한 강의를 들었습니다 SIFT는 굉장히 유명하고 인용도 많이 된 알고리즘이라고 해요 SIFT개념을 처음 들어본 저에 내용이 쉽지 않네요 (강의 듣고 난 나의 표정) 여러번 반복하며 보면서 이해하도록 노력해야겠어요 오늘 들은 거로는 이해도가 대략... 65% 정도 된것 같아요 강의가 거의 영어 단어를 한국어 조사로 이어붙이는 정도라서 이해가 더 어려운 것도 있는 것 같아요... 영어 단어를 좀 풀어서 말해주시면 좋겠다...는 저의 바램이었습니다 오늘의 키워드(자세한 내용은 아래에) - SIFT - Laplacian of Gaussian(LoG) - Difference of Gaussian(DoG) - keypoint filtering - Descriptor 오늘의 강의내용 정리는 제가 이해한대로 정리해보겠습니다 여러번 보고나서 모두 이해한 후에 추가 포스팅을 해보겠습니다 개념을 이해하고자 하는 저의 노력을 담은 필

패스트캠퍼스 환급챌린지 18일차 미션(2월 18일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

벌써 2월 18일이 되었습니다 한달의 반이 모르는 사이에 벌써 지나버렸네요 오늘은 일요일입니다 내일은 새로운 한주가 시작되는 월요일이라니 시간이 새삼 빨리 지나간다는 느낌이 드네요 이번주가 유독 빨리 지나간 것 같은 느낌적인 느낌 아직은 고전적인 컴퓨터비전 이론 파트를 듣고 있습니다 고전적인 이론인데 어렵습니다... 이해가 어려워요... 아니 이런 이론들은 어떻게 생각하신걸까 싶은 생각이 들 정도로 저에겐 쉽지 않습니다 그래서 다른 강의도 병행해서 듣고 있어요 언제가 이해가 되기를 바랍니다... 일해라 내머리 오늘의 키워드(자세한 내용은 아래에) - model fitting - least square - RANSAC 오늘도 들은 이것이 영어인가 한국어인가 싶은 강의 풀어서 말해주시면 좋겠다는 생각을 오늘도 백만번 생각하면서 듣습니다 강의를 들으면서 필기의 아름다움까지 챙기는 것은 어렵습니다 알아볼 수 있으면 되지를 생각하며 오늘도 합리화를 합니다 <오늘의 강의정리> Model Fit

패스트캠퍼스 환급챌린지 19일차 미션(2월 19일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

드디어 19일차입니다 오늘은 고전적인 컴퓨터비전 이론 강의들을 모두 마무리했습니다 (물론 다시 봐야하긴 하지만 드디어 1회독 완료!) 가끔 강의를 달려야겠다는 느낌이 드는 날이 있는데 그게 하필 오늘이었어요 게다가 딥러닝과 컴퓨터비전 파트로 넘어가고 싶은 마음도 들어서 4개 남은 강의를 모두 해치워버렸습니다 내일부터 새로운 주제가 시작된다는 것이 너무나 기쁘네요 오늘의 키워드(자세한 내용은 아래에) - Hough Transform - fitting - matching - image representation - visual representation - bag of words - spatial pyramid matching - classification <오늘의 강의정리> Hough Transform Fitting 기법 중 하나 1959년에 발표된 "Machine Analysis of Bubble Chamber Pictures" 논문에서 나온 기법입니다 Parameter space에

패스트캠퍼스 환급챌린지 20일차 미션(2월 20일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 20일 드디어 딥러닝과 컴퓨터비전 챕터에 들어왔습니다 이전에 들어봤던 개념을 다시 듣게 되니 내용이 이해가 되면서 마음의 평화가 왔습니다 역시 복습이 최고입니다 오늘의 키워드(자세한 내용은 아래에) - Perceptron - Activation function - Gradient Descent - Chain Rule - Backpropagation - Multi-Layer Perceptron(MLP) - Loss Function - Stochastic gradient descent(SGD) - Momentum - Overfitting - Vanishing Gradient <오늘의 강의정리> Perceptron : Single Layer Neural Network를 의미합니다(층이 1개) 과정 0-255값을 가진 픽셀로 구성된 input이미지가 들어갑니다 (input modulating) weight와 bias로 계산이 되고 이를 통해 z가 만들어집니다 z값을 activatio

[딥러닝 개념 1] Perceptron에 대해 알아보자 [내부링크]

여기서 다루는 내용의 키워드 - Tensor - Perceptron - Bias(편향) - Weight(가중치) - Weight 업데이트 - 활성함수(Activation Function) - Perceptron 학습 본 내용으로 들어가기 전에 알아두면 좋은 기본 정보 딥러닝이란? 입력을 넣었을 때 수학적인 계산을 통해 결과를 예측하는 것을 의미합니다 수학적 계산을 할 때 weight(가중치), bias(편향)이 사용됩니다 딥러닝의 입력, 출력 값은 실수값이고 벡터로 표현됩니다 (벡터 = 여러개의 실수값의 쌍이고 각 실수값은 서로 다른 의미를 가지고 있습니다) Tensor - 벡터로 표현된 데이터들을 모아서 배열로 만드는데 이 배열들의 차원을 늘려 3차원 이상으로 늘린 것을 의미합니다 - tensor는 딥러닝의 입력으로 사용됩니다 Perceptron(퍼셉트론) : 신경세포를 이진 출력의 단순 논리 게이트로 해석해서 고안한 분류기입니다(인공뉴런입니다) (무려 1957년에 고안된 알고리즘

패스트캠퍼스 환급챌린지 21일차 미션(2월 21일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

21일차 기록을 시작하겠습니다 오늘은 하루종일 눈과 비가 오네요 2월인데 날씨 실화인가... 눈비 덕분에 내일은 더 추워지겠어요 아직 봄이 되려면 멀었나봅니다... 오늘의 키워드(자세한 내용은 아래에) - CNN - Convolution Kernel - Convolution - Pooling Operations <오늘의 강의정리> CNN MLP(multi-layer perceptron)는 시작적 데이터(visual data, 이미지 비디오 등)에는 사용하기 적절하지 않아요 MLP는 fully connect layer를 가져요. 모든 입력들에 대해 fully connected 되어 있습니다. video나 image 데이터들은 차원이 커요. 그래서 MLP를 사용하게 된다면 w(가중치)의 개수도 거의 100만개에 육박합니다. over fitting도 잘 일어나고 낭비가 크죠 해결책: Convolution kernel을 사용하면 됩니다 Convolution g = f * h 와 같은 형태로

패스트캠퍼스 환급챌린지 8일차 미션(2월 8일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

8일차 기록 시작하겠습니다 내일부터 연휴이기 때문에 이를 기념하고자 강의 3개를 들었습니다 오늘 강의의 내용은 CNN역전파, 컴퓨터 비전의 주요한 task 중에서 이미지분류와 객체검출입니다. CNN 역전파 부분은 따로 포스팅을 자세하게 해야겠습니다. 계산이 들어가는 과정을 한땀한땀 손으로 해봐야겠습니다 .그래서 이 포스팅에서는 CNN 역전파에 대해 간략하게 다룹니다 역전파에 대한 자세한 내용은 조만간 올려보겠습니다 오늘의 키워드(자세한 설명은 아래에) - CNN 역전파 - 이미지분류(image classification) - 객체검출(object detection) - YOLO 오늘의 수강인증 사진으로 내용정리를 시작해보겠습니다 <오늘의 강의정리> CNN 역전파 가중치를 업데이트하기 위해 하는 과정 loss가 감소하는 방향으로 가중치를 업데이트 할 수 있게 되는 것이 이 과정의 목적입니다 자세한 내용은 계산과정 포함해서 따로 올릴 예정... Computer Vision Task 몇가

패스트캠퍼스 환급챌린지 9일차 미션(2월 9일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

9일차 학습기록 시작합니다 오늘은 설 연휴 첫번째 날입니다. 게다가 금요일이죠! 평일에 빨간날이 얼마만인지 설레여하다가 강의를 오늘을 건너뛸까하는 유혹이 들었지만 환급을 생각하며 오늘도 정신을 부여잡고 강의를 듣습니다 오늘의 강의주제는 computer vision task 중에서 중요한 객체추적과 영역분할입니다 오늘의 키워드(자세한 내용은 아래에) - 객체추적(object tracking) - 영역분할(segmentation) <오늘의 강의정리> 객체추적(obect tracking) object detection 이미지가 주어졌을 때 오브젝트가 위치하는 bounding box를 찾는 task가 수행됩니다 그 bounding box가 해당하는 class classification task가 수행됩니다 object tracking은 object detection에 object id 예측까지 포함됩니다 오브젝트의 클래스가 같아도 다른 오브젝트로 판단해서 id를 부혀앻요 어떤 오브젝트가 어

패스트캠퍼스 환급챌린지 10일차 미션(2월 10일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

드디어 10일차를 돌파했습니다 오늘은 진정한 새해라고 할 수 있는 설날입니다 설날답게 착실하게 확대되고 있는데 나중의 내 자신이 감당할 수 있을 것이라 믿어 의심하지 않기에 맘놓고 확대되고 있습니다(감당가능한거 맞나...) 이번에 들은 강의의 내용은 이미지전처리입니다. 이 강의까지 듣고 나니 CNN개론 강의가 딱 3개가 남더군요 내일이면 CNN 개론부분은 끝날 것 같아서 기쁘기 그지 없습니다 (그렇지만 남은 강의 하나의 길이가 20분이 넘는다는 사실...) 사실 오늘은 이미지 전처리까지 들으려고 했는데 하나만 듣기에는 양심이 굉장히 없는 것 같으므로 부록으로 딸려있는 파이썬 기초 강의들도 몇개 들었습니다 이게 또 오랜만에 보니까 갑자기 기억이 안나는 것도 있더라구요 항상 기초가 중요하므로 꾸준하게 기억을 잃지 않게 들어줘야겠습니다 오늘의 키워드(자세한 내용은 아래에) - 이미지 전처리 -pre processing - post processing -opencv <오늘의 강의정리> 이미

패스트캠퍼스 환급챌린지 11일차 미션(2월 11일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 드디어 CNN 개론 부분이 끝났습니다 계획한대로 CNN 개론이 끝나서 다행이네요 내일부터는 컴퓨터 비전 이론 강의를 시작할 수 있다니 아주 기쁩니다 (자축!) 자 그래서 오늘은 어떤 강의를 들었냐면 '데이터불균형, 오버피팅, 이미지증강' 이렇게 3개를 들었습니다 이 세가지 주제 모두 아주 중요한 기본개념이라서 무려 한 강의가 20분이 넘어요 그만큼 다루는 내용이 많았습니다 오늘의 키워드(자세한 내용은 아래에) - 데이터불균형(Imbalance) - oversampling - Focal loss - 오버피팅(Overfitting) - 이미지증강(Augmentation) - GAN <오늘의 강의 정리> 데이터불균형(Imbalance) 데이터가 클래스 별로 분류되어 있는데 특정 클래스의 데이터 양이 다른 클래스 데이터 양과 현저하게 다를 때를 의미합니다 만약 클래스1, 클래스2가 있는데 클래스1의 데이터가 99%, 클래스2의 데이터가 1% 있다고 해볼게요 이 데이터로 학습한 모델의

패스트캠퍼스 환급챌린지 12일차 미션(2월 12일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

드디어 설날 마지막 연휴입니다 월요일 연휴는 귀하죠... 내일부터는 다시 일상으로 돌아가야 한다는 사실이 아쉽기는 합니다 오늘부터는 컴퓨터 비전 부분 강의를 듣기 시작했어요 이 부분에서 배우게 될 내용에 대한 간단한 overview와 필수적인 선형대수 개념들에 대해 살펴보는 내용의 강의입니다 오늘의 키워드(자세한 내용은 아래에..) - linear algebra - 벡터 - matrix - determinant - Eigen Decomposition 오늘의 수강인증 사진.. <오늘의 강의정리> Overview 컴퓨터 비전 강의는 9개 파트로 구성된다는 점 컴퓨터 비전이란? 인간이 인지하는 시작적 정보를 기계도 인지하도록 알려주는 것 컴퓨터 비전에서 센싱하는 방법 카메라, 폰, 다양한 센서들(카메라 센서, 레이더 센서 등), 3차원 정보를 알려주는 depth 카메라, 의료영상 촬영장비 등등등 컴퓨터 비전의 application(여러개가 있지만 그중에서 몇개만) Visual Locali

패스트캠퍼스 환급챌린지 13일차 미션(2월 13일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

휴일이 끝난 후 처음 맞는 평일입니다 벌써 13일차가 되었네요 아직 컴퓨터 비전 이론에 들어가기 전에 알아둬야 할 기본 지식들에 대한 강의를 듣고 있습니다 아무래도 뒤쪽 강의들과 순서 상관없이 혼합해서 들어야 할 것 같아요 기본지식들도 중요한데 얼른 본론에 들어가고 싶은 마음이랄까요 듣는데 순서는 상관없으니 내일부터는 뒤에 강의도 들어야겠습니다 오늘의 강의는 probability 와 OpenCV. matplotlib, PIL에 대한 내용이었어요 수학은 타이핑이 어려워서 손 필기로 전향했습니다 이제 슬슬 실습 코드가 포함되어서 코드도 정리해서 올려야겠습니다 오늘의 키워드(자세한 내용은 아래에) - probability - random variable - Gaussian Distributions - OpenCV -Matplotlib - PIL <오늘의 강의 정리> Probability 사진을 찍으면 다양한 이유로 노이즈가 포함되고 불확실성이 생겨요 이런 불확실성을 수치화할 때 확률을 사

패스트캠퍼스 환급챌린지 14일차 미션(2월 14일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 14일차입니다 컴퓨터비전 기본개념들 강의를 듣다가 오늘은 주제를 바꿔서 고전적인 컴퓨터비전 주제를 들었어요 컴퓨터비전의 기초가 되는 개념들만 듣다보니 흥미가 약간 떨어져서 주제를 바꿔보았습니다 새로운건... 재미있으니까요... 새로운 주제를 들어보니 또 흥미가 막 돋네요 역시 주제를 바꿔서 들어줄 필요가 있는것 같아요 오늘의 키워드(자세한 내용은 아래에....) - Local Image Features - Interest Point - Saliency - Locality - Repeatability 오늘의 수강인증 사진 역시나 항상 그랬듯 익숙한 구도의 사진입니다 <오늘의 강의정리> Local Image Features Image Features 는 "우리가 관심있는 부분"을 의미합니다 많은 컴퓨터 비전 알고리즘의 시작점이라고 할 수 있어요 Bounding box 찾는 object detection이나 object discovery task 에서는 local feature로

패스트캠퍼스 환급챌린지 3일차 미션(2월 3일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 강의 듣기 시작한지 3일차가 되었고 2월의 첫 주말입니다. 주말에는 모름지기 강의를 몰아쳐야하기 때문에 딥러닝 개론부분을 거의 다 들어버렸습니다. 강의를 다 들었다는 체크표시가 늘어가는게 기분이 좋습니다. 이번 포스팅부터는 표지를 추가해봤어요. 대표이미지가 어두컴컴한 사진이면 좀..그렇기 때문이죠 오늘 들은 내용은 지도학습/비지도학습, 선형회귀, 신경망, 가중치 행렬, 경사하강법입니다. 그렇지만 이 포스팅에서는 지도학습/비지도학습과 선형회귀 내용만 정리할거예요. 나머지 내용은 다른 페이지에 정리해야겠습니다. 한페이지에 모두 넣기엔 너무 길어서 그래요(귀찮은거아님. 암튼 아님) 오늘 강의에서 강사님의 열정이 담긴 강의자료 기념샷 한번 찍어주고요 집중력을 유지하면서 강의들으려고 오늘도 어김없이 타이핑을 옆에서 했습니다. 아무것도 안하고 가만히 앉아서 강의듣는 것... 너무나 힘든일이에요 <오늘의 강의정리> 지도학습과 비지도학습 지도학습이란? dataset = data + labe

패스트캠퍼스 환급챌린지 4일차 미션(2월 4일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 일요일입니다. 내일은 월요일이죠 내일이 월요일이란 사실이 슬퍼 딥러닝 개론 부분의 강의를 모두 들었습니다 오늘 들은 강의의 주제는 '소프트맥스'와 '크로스엔트로피' 입니다 일단 가볍게 수강인증 사진 2장과 함께 정리를 시작해보죠 오늘도 강사님의 필기엔 열정이 넘치시네요 <오늘의 강의 정리> <소프트맥스> 출력노드가 1개일때(Regression과 같이 하나의 값을 예측하는 경우) 답 예측하면 끝! 그런데 출력노드가 2개이상이라면? 분류(classificiation)의 경우 클래스가 여러가지 입니다 이진분류(클래스가 2개인 경우)를 예시로 보죠 개/고양이 두 클래스에 대해 분류를 해봅시다 개인지 고양이인지 분류하기 위해서는 예측값이 2개(출력노드가 2개!) 나오게 되고 이중에서 더 높은 예측값을 가진 클래스를 답으로 합니다 이렇게 출력노드가 2개일때 cost는 어떻게 구할까? 예측값을 그대로 쓰면 문제가 생길 수 있기 때문에 확률값으로 변환을 해야합니다 예측값을 그대로 쓸 때 가

패스트캠퍼스 환급챌린지 5일차 미션(2월 5일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

5일차 강의정리를 해보겠습니다 오늘부터는 CNN개론 부분을 시작했습니다 CNN부분부터는 내용이 저번보다는 조금 빡세지니까 마음의 평화를 위해 표지색을 초록으로 바꿨습니다 벌써부터 마음이 평화로워지네요 CNN개론 첫번째와 두번째 강의를 들었는데 어떤 내용이지에 대한 overview와 이미지필터에 대한 내용이 오늘 강의의 주제였어요 오늘 배운 내용 키워드(자세한 내용은 아래에) - CNN 개론 overview - 이 주제에서는 무엇을 배우는지 - 이미지파일의 정의와 특징 - grayscale 이미지 -컬러스케일 이미지 - 이미지필터 오늘도 어김없이 수강인증 사진 2장과 함께 내용정리를 시작합니다 <오늘의 강의정리> CNN 개론 Overview 무엇을 배우나 이 부분에서는 합성곱 연산에 대한 내용을 다룹니다 신경망 입장에서 컨볼루션 연산을 이해하면 되는지에 대한 설명이 주를 이룹니다 컴퓨터 비전 영역에서 가장 활발하게 사용되는 대표적인 task 4개를 다루고 빈번하게 발생하는 문제점과 해

패스트캠퍼스 환급챌린지 6일차 미션(2월 6일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘도 어김없이 다시 돌아왔습니다 6일차 챌린지, 시작합니다 오늘의 주제는 "합성곱(convolution)연산" 입니다 convolution은 옛날 옛적에 전공 강의 들을 때 아주많이 중요한 개념이라고 못이 박히게 들었던 녀석입니다. 항상 시험문제에 나왔던.... 그래서 계산을 해야했던.... 그런 개념이죠 강의에서 다시 들으니 새삼 반갑군요 합성곱 연산은 2개의 강의로 나눠져있어서 오늘은 그 2개를 들었습니다 중요한 개념인만큼 강의도 2개로 되어 있네요 오늘의 키워드는 아래와 같습니다 오늘 강의의 키워드(자세한 설명은 아래에) - 합성곱(convolution) 연산 - filter - padding - stride 어김없이 수강인증 사진 2장으로 시작합니다 <오늘의 강의정리> 이미지를 어떻게 신경망에 입력할 수 있을까? 방법1: 이미지를 구성하는 픽셀을 일렬로 쫙 펴서 신경망에 넣어버리기 이 방법의 문제점 우리는 이미지를 픽셀 하나씩 보고 인식하는 것이 아니라 전체적인 모습을 보고

패스트캠퍼스 환급챌린지 7일차 미션(2월 7일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

어느덧 수요일... 일주일의 반이 지나가고 있습니다 이번주는 설연휴가 있는 주라서 그런지 일주일이 참 빠르게 지나가고 있습니다 내일만 지나면.... 연휴라니! (입가의 미소) 그렇지만 연휴여도 일일 포스팅은 멈출 수가 없어요 얼른 개론부분 넘어가고 싶다! 그렇지만 중요하다!! 고로 연휴동안 강의를 많이 들어야겠습니다 집에서 뭐하겠어요 공부해야지 오늘 강의의 주제는 CNN입니다 Convolutional Neural Network의 약자인데 항상 늘 언제나 듣게 될 단어이기 때문에 익숙해져야 합니다 오늘의 키워드(상세한 내용은 아래에) - CNN - Feature Map - Channel - Max Pooling - Fully Connected Layer 오늘의 수강인증 사진과 함께 내용정리를 시작하겠습니다 < 오늘의 강의정리> Feature Map 이란? 입력에 변수(여기서는 가중치)로 구성된 필터(convolution filter)로 필터연산을 진행해서 생성된 것이 feature m

패스트캠퍼스 환급챌린지 2일차 미션(2월 2일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘은 2월 2일 환급강의 2일차입니다. 평일에는 할 일 모두 끝낸 후 저녁시간에 강의를 들다보니 아무래도 급히 듣는 감이 있네요. 이렇게 듣다가는 나중에 본 내용에 들어갈 때 시간에 쫓기는 험난한 인생을 살 것 같으니 아무래도 강의를 좀 더 일찍 들어야겠습니다. 새벽에 평화로운 마음으로 듣고 복습하는 것도 좋은 방법인 것 같아요. 내일은 주말이니까 평일보다 더 많이 들을 수 있겠습니다. 딥러닝 기초를 집중적으로 빠르게 듣는 것을 내일 목표로 잡아야겠어요. Chapter1 딥러닝 개론 부분을 반이상 들어보겠습니다(대충 하루종일 듣겠다는 말) 오늘은 딥러닝 개론에서 학습의 개념과 원리, 데이터셋 분할 부분을 들었습니다. 강의 내용을 아래에 정리했어요 오늘도 어김없이 한쪽 모니터에서 강의를 듣으며 반대쪽 모니터에 정리를 했습니다. 배속된 강의를 들으며 타이핑도 같이 하려니 내용을 놓칠 수 없어 점점 타자속도가 늘고 있습니다. 빠른 타자는 개발자에게 득이니 오히려 좋습니다 학습 머신러닝에

기초 #8) 일러스트레이터에서 이미지를 벡터화시키기(이미지트레이스) [내부링크]

일러스트레이터에서 사진을 가지고 올 때 저는 항상 이 이미지가 깨지면 안되는데?라는 생각을 합니다 그래서 일러스트레이터에서 이미지를 가져올 때는 이미지를 벡터화시키기 위해 이미지 트레이스를 합니다 이미지 트레이스를 하면 이미지가 벡터화 되기 때문에 크기를 맘대로 확대 축소해도 깨지지 않습니다 (일러스트레이터CC 2022버전으로 만들었습니다) 일단 pixabay에 가서 마음에 드는 이미지 하나를 가져옵니다 이미지의 테두리가 선명할수록 이미지 트레이스가 더 잘됩니다 색이 예쁜 튤립입니다 이제 이 이미지를 '이미지 트레이스' 해줄겁니다 일러스트레이터로 이미지를 가져오게 되면 기본적으로 이미지 위에 X표시가 되어 있습니다 내가 어딘가에서 이미지를 가져왔다는 거죠 일러스트레이터에 완전히 넣어버리기 위해서는 위쪽의 Embed를 눌러주면 됩니다 이제 이미지 트레이스를 해줄겁니다 여러방식으로 할 수 있는데요 전 색을 그대로 쓰고 싶으니 16colors를 선택해서 이미지 트레이스를 해주겠습니다 그러

2022.09.18. 스파르톤 생존일지(생존성공) [내부링크]

12:00 스파르톤 시작 제공해주는 무료강의인 부트스트랩으로 시작합니다 시작했으니 아침해는 보고 잠들어보겠어요 1:00 부트스트랩 강의를 순조롭게 듣고 있다 부트스트랩은 이미 만들어진 코드들을 복사 붙여넣기 하면 된다는 점에서 매우 엄청 편리하다. 하나하나 새로 만드는 것보다 이렇게 복사 붙여넣기를 하니 너무 좋다 부트스트랩으로 인스타그램 피드를 만들고 있다 강의를 조곤조곤 따라하다보니 어느새 피드의 모양이 갖춰지고 있다 1시간만에 이정도가 완성되다니..... 이 속도면 부트스트랩 곧 끝내고 다른 강의도 들을 수 있을 것 같다 조곤조곤 강의보고 코드 따라하는 중. 이 중에서 내가 쓴 코드는 5%도 안될 것 같다 강의보고 따라만 했는데 이런 결과물이 나왔다. 강의 너무 좋다. 부트스트랩도 최고다! 2:00 드디어 부트스트랩 강의를 끝냈다! 따라하다보니 어느새 끝나있었다는 기쁜사실 마지막 '스스로 해보기'도 끝내버렸다. 이전 강의에서 들은 코드를 잘 조합하니 금방 해결할 수 있었다 완성

[다이어리 찾기 여정] 하드커버 바인더 다이어리를 찾아보자 -커버 찾기 [내부링크]

2022년 말인 지금 해야하는건 바로 2023년 다이어리를 준비하는 것이다 왜냐면.. 지금 준비하지 않으면 내년 1월 1일부터 일기를 시작할 수 없기 때문이지 나의 다이어리 취향은 꽤나 까다롭다 "표지는 하드커버일것(양장형) + 크기는 A5이상 + 용지는 도트나 무선 + 두께감 있는 용지" 이 조건들을 만족하는 다이어리를 찾기가 여간 힘든게 아니다 틀이 짜여져 나온 기존 다이어리를 쓰면 안되나 싶지만 그동안의 결과에 따르면 난 틀이 있는 다이어리를 끝까지 쓰지 못한다 한달도 못쓰고 그만둬버림 그 이유는... 재미없으니까...... 나에게 맞는 다이어리 형식을 만들어가는게 내 취향이라는 것을 깨달아서 다이어리 종이는 무조건 무선이나 도트를 쓴다 양장형 노트는 한페이지를 쓸수록 내가 책을 쓰는 느낌이라서 좋아한다 게다가... 디자인이 멋있다구! 시중의 노트는 양장형보다는 스프링노트가 더 많아서 좀 슬프긴 하다 양장형 노트의 단점이라면 페이지를 추가하지 못한다는 것이다 아직 쓰고있는 다이

패스트캠퍼스 환급챌린지 1일차 미션(2월 1일) : 한 번에 끝내는 컴퓨터비전 초격차 패키지 Online 강의후기 [내부링크]

오늘부터 패스트캠퍼스 60일 환급챌린지를 시작합니다. 컴퓨터비전 공부를 하려고 강의를 고를 때 고민이 많았습니다. 프로젝트 위주의 패키지강의와 개념도 많이 들어가 있는 초격차패키지 사이에서 고민하다가 초격차패키지를 선택했습니다. 개념들을 내가 정확히 알고 설명할 수 있는까라는 질문에 명확하게 그렇다를 말할 수 없어서 초격차패키지를 골랐어요. 초격차패키지인만큼 강의시간도 길고 개수도 많지만 60일간 매일 꾸준히 열심히 들어 발전을 이뤄보겠습니다. 부록에 데이터사이언스 기초 강의들도 있으니 틈틈이 봐야겠습니다. 1일차인만큼 먼저 딥러닝 개론부분 초반을 들었습니다. 모든 분야가 그렇듯 가장 기본 개념을 잘 잡고 가야하니까 들어봤다 싶어도 패스하지 않고 모두 들었습니다.(그렇지만 배속은 참을 수 없는 것...) overview부분에서는 공부팁을 먼저 알려주셨는데 완벽주의를 내려놓자는 말이 인상깊었습니다. 배울 때 100% 이해하지 못해도 일단 넘어가고 개념들이 상호보완적으로 연결되어 있으니

주식투자 #2) 주식을 산다는 것의 의미 (feat. 베어유) [내부링크]

많은 분들이 주식을 사는 것을 가격이 낮을 때 사서 가격이 높을 때 팔아서 수익을 내는 것 이라고 여기시는 것 같아요 그런데 주식을 사는 것은 그런 의미와는 좀 다르게 생각해야 할 것 같아요 일단 주식과 많이 헷갈리는 개념으로 채권이 있는데 주식과 채권이 어떤 차이를 가지는지 이야기를 통해 알아보면서 주식의 의미에 대해 얘기해볼게요 주식과 채권의 차이 알아보기 내가 회사의 사장님이라고 생각을 해보죠 회사에서 만든 제품이 너무 잘 팔려서 더 많이 생산을 하면 돈을 더 많이 벌 수 있을 것 같은거예요 공장을 더 늘려야하는데 그러려먼 10억원이 필요해요 근데 회사 내부에 10억원이 없네요 이 경우 내가 돈을 마련할 수 있는.......

주식투자 #3) 어느 기준으로 주식을 사야할까 (feat. 베어유) [내부링크]

저번 포스팅에서 주식을 투자한다 &#x3D; 회사랑 동업자가 된다 이런 의미라고 했었어요 그렇다면 우리가 동업자를 고를 때 어떤 기준을 가지고 골라야할까요 이건 정석적인 판단을 해야하기에 사업보고서를 보고 판단을 해야 합니다 일단 가장 중요한 것은 이 회사가 어떤 아이템을 가지고 사업을 하느냐겠죠 그 아이템이 회사의 매출에 영향을 줄테니까요 내가 주식투자를 할 동업자를 고르기 위해서는 4가지 조건을 확인해야해요 1. 주요사업 내용 및 제품과 매출구성 어떤 사업부문을 가지고 영업을 하고 있는지 알아야겠죠 2. 시장내 지위와 경쟁자 확인 독과구조에서 사업을 하는지 아니면 자유 경쟁시장에서 사업을 하는지에 따라 회사의.......

주식투자 #4) 주식의 성격 이해하기 (feat. 베어유) [내부링크]

나와 내 형제자매는 비슷한 성격을 가지고 있죠 이렇듯 비슷한 성격을 가진 주식도 있답니다 주식을 분류할때는 크게 &#x27;성장주/가치주&#x27;과 &#x27;대형주/중소형주&#x27; 이렇게 나눌 수 있어요 성격에 따른 분류 대형주, 중소형주 &#34;대형주란&#34; 우리가 한번쯤은 이름을 들어본 삼성전자, 현대차, 하이닉스, sk텔레콤 같이 규모가 큰 종목을 의미합니다 &#34;중형, 소형주란&#34; 삼성전자나 현대차와 같은 기업에 하청을 하는 작은 업체들에 해당하는 종목을 의미합니다 가치주, 성장주 &#34;가지주란&#34; 가치주의 대표적인 예로 은행이 있죠 망할 일도 없고 앞으로 계속 안정적으로 꾸준히 돈을 벌 수 있는 종목이죠 &quo.......

주식투자 #5) 회사의 가계부-재무제표 살펴보기 (1) 대차대조표, 손익계산서(feat. 베어유) [내부링크]

이전 포스팅에서는 어떤 종목에 대해 분석을 할 때 사업보고서를 통한 정석적인 판단에 대해 얘기했습니다 이번에는 정량적인 판단을 하는 방식에 대해 얘기해보려고합니다 이런 분석은 회사의 가계부인 &#x27;재무제표&#x27;를 통해 알아볼 수 있습니다 재무제표의 한자를 살펴보면 財(재물재)務(힘쓸무)諸(모두제)表(겉표) 이 4개 한자를 쓰는 것을 볼 수 있는데요 한자의미 그대로 &#x27;기업의 재물과 노력을 모두 볼 수 있는 표&#x27; 라고 생각하면 될 것 같아요 제무제표에는 여러 항목들이 있는데요 이번 포스팅에서는 대차대조표와 손익계산서 에 대해 소개하겠습니다 다음 포스팅에서는 현금흐름표에 대해 얘기해볼게요 &#34;대차대조.......

주식투자 #6) 회사의 가계부-재무제표 살펴보기 (2) 현금흐름표 (feat. 베어유) [내부링크]

이전 포스팅에서는 재무제표에서 대차대조표와 손익계산서에 대해 얘기했습니다 (혹시 기억이 안난다면 다시 볼까요) 이번에는 #현금흐름표 에 대해 설명해보도록 할게요 #현금흐름표 는 회사의 실제 현금 유출입을 기록하는 장부 입니다 재무제표를 볼 때 대차대조표와 손익계산서만 보면 안정성이 떨어집니다 손익계산서 상으로는 +300이 기록되는데 실제로는 그만큼의 현금이 회사에 들어오지 않고 있을수도 있기 때문이죠 그래서 안정성을 위해서 현금흐름표까지 확인해야 합니다 현금흐름표에서는 영업현금흐름, 투자현금흐름, 재무현금흐름 이 세 부분의 부호를 확인해야 합니다 부호가 +인지 -인지에 따라 달라지는 의미가 중요하기 때문.......

C++ 개념잡기 1-1) C와 C++의 차이 [내부링크]

C++을 배우는 많은 분들이 이미 C언어를 공부한 다음에 배우는 경우가 많습니다 (댓츠 미......) C와 C++은 기본적인 문법이 같기 때문에 대부분 C와 C++은 비슷한 언어라고 생각합니다 저도 처음 배울 때 &#x27;C++은 C언어의 확장판이군!&#x27; 이라고 생각했으니까요 그런데 C와 C++은 아주 매우 다른 언어입니다 C는 프로그램이 실행되는 순서가 중요한 &#x27;절차지향적 언어&#x27;이고, C++은 객체(프로그램 모음)을 중시하는 &#x27;객체지향적 언어&#x27;입니다 프로그래밍 방식 자체가 완전 다른 아예 다른 언어라고 할 수 있죠 저는 C++공부할 때 Visual Studio 2019를 사용합니다 제가 참고하는 책이 Visual Studio를 사용하기 때문이.......

C++ 개념잡기 1-2) 인스턴스와 입출력 흐름 [내부링크]

이번에는 인스턴스와 입출력 흐름에 대해 설명하겠습니다 C에서는 변수라고 표현되던 것을 C++에서는 인스턴스로 부른다고 생각하면 됩니다 1. 인스턴스 인스턴스의 정확한 정의를 살펴보면 객체의 형식을 갖는 변수를 인스턴스라고 합니다 좀 말이 어렵죠? C++은 객체 지향 프로그래밍이잖아요 그래서 어딘가에 속한다는 소속이 중요하게 여겨집니다 위의 코드를 통해 설명하면 a는 int라는 자료형에 속한 인스턴스 strdata는 string이라는 자료형에 속한 인스턴스 라고 할 수 있습니다 간단히 말해서 &#x27;~에 속한 변수&#x27;&#x3D;인스턴스 라고 생각하면 훨씬 이해가기 편할 것이라 거예요 2. 입출력 흐름 C에서와 마찬가지로 C++에서도 가.......

1.2. 개발도구 설치하기 [내부링크]

안드로이드 앱을 만들기 위해서는 안드로이드 스튜디오라는 개발도구를 설치해야 합니다 안드로이드 스튜디오는 자바로 만들어진 개발도구이기 때문에 안드로이드 스튜디오를 설치하면 필요한 자바도 같이 설치됩니다 1. 안드로이드 스튜디오 다운로드 및 실행 1-1) 안드로이드 개발자 사이트에 접속해서 설치 프로그램을 다운로드합니다 https://developer.android.com/studio 위 링크로 들어가서 설치파일을 다운로드합니다 1-2) 설치파일을 더블클릭하면 설치가 시작됩니다 1-3) 안드로이드 스튜디오가 처음 실행되면 Complete Installation창이 나타납니다 저는 처음 설치한 거니까 [Do not import settings]버튼을 누릅니다 1-4) 초기설정 화.......

주식투자 #1) 주식시작하기 (feat. 베어유) [내부링크]

요즘은 #주식 얘기를 하지 않는 곳이 드문 것 같아요 실시간 검색어에도 주식얘기가 끊이지 않더라구요 저도 주식을 시작해볼까 했는데 아무것도 모르는 상태에서 시작하려니까 어려운 점이 너무 많더라구요 그래서 저도 주식에 대해 조금 공부를 해봤습니다 예전에 들었던 베어유 강의를 토대로 다시 한번 복습을 했습니다 주식에 대해 아무것도 모를 때 하는 생각이 어떤 식으로 투자를 해야할까인데요 인터넷 서핑을 하다보면 좋은 종목을 추천해 준다고 하는 오픈 카톡방들이 정말 많이 보입니다 오르는 종목들을 추천해준다고 하니 매력적으로 보이는데요 그런데 공부를 하지 않고 남이 하는 얘기로 투자를 하게 되면 그 손실은 누구도 보상.......

신입사원 상식사전(9) 상사는 개 다루듯 하자. 중간보고의 중요성(feat. 빡공단) [내부링크]

이번에는 제목이 조금(?) 자극적이죠 &#34;상사를 개 다루듯 하라&#34; 저도 처음 이 강의의 제목을 봤을때 솔직히 당황했어요 어감이 좀 당황스러운데? 근데 이 강의는 신입사원이 어떻게 해야하는지를 다루는데? 근데 신입이 상사를 개처럼,,,? 네 뭐 이런 생각이었어요 근데 내용을 보다보니 제목을 왜 저렇게 지었는지 알게 되었습니다 강아지들의 특성을 볼게요 강아지들은 오라하면 가고 가라하면 옵니다 상사들은 마치 강아지가 간식을 찾듯이 업무 진행상황을 지속적으로 확인합니다 내가 계속 업무에 대한 피드백을 고참과 상사에게 준다면 그들은 나를 더이상 귀찮게 하지 않아요 이래서 중간보고가 굉장히 매우 중요합니다 중간보고.......

신입사원 상식사전(10) 회의준비 지나치게 하자(feat. 빡공단) [내부링크]

회사에 들어간 막내 신입사원에게 #회의준비 를 시키는 경우가 왕왕 있습니다 업무가 익숙치 않은데?? 그럼 무엇을 준비해야 하지?? 이런 멘붕을 겪지 않기 위해서 미리미리 해야할 일을 알아두는 것이 반드시 필요합니다 교과서적인 정의로 보면 #회의 의 목적은 1. 중요한 사항과 중요데이터 공유 2. 결정에 대한 동의 획득 3. 부서, 기업의 전략수립 및 과제수행 4. 문제분석, 의사결정, 과제의 계획 수립 5. 계획 대비 성취도, 업무진행 점검 입니다 자 그러면 회의는 도대체 어떤 태도로 해야할까요 상당히 많은 신입사원들이 &#x27;나는 아직 업무에 익숙하지 않고 아는 것도 많이 없는 신입이니까 가만히 있자&#x27; 라고 생각합니다 그런.......

신입사원 상식사전(11) 회의로 FLEX 해버리자. 회의 태도 알아보기(feat. 빡공단) [내부링크]

저번 포스팅에서도 말했듯이 회의 때는 &#x27;가만히 있으면 중간은 간다던데...&#x27; 라는 말이 전혀 적용되지 않습니다 #회의 는 내가 얼마나 알고 얼마나 잘났는지 이런 것들을 보여줄 수 있는 좋은 기회이기 때문에 회의 때 말을 많이, 적극적으로 하는 전투적인 자세가 좋습니다 근데 회사에 들어간지 얼마안된 신입이라 회의내용이 무엇을 말하는지 전혀 모른다면 어떻게 해야할까요 이런 상황을 대비해서 존재하는 &#34;무적 멘트&#34;들이 존재한답니다 1. 그렇게 하면 BEP(Break Even Point/ 손익분기점) 에는 영향 없을까요 또는 이거 영업이익에는 어떻게 될까요 2. 그 방안에 대해 예상되는 부작용은 혹시 없겠습니까 3. 방금 말.......

대학생이라면 이런 혜택도 있다구! (1) 윈도우 무료 설치 [내부링크]

이제 정시 합격자들도 발표되면서 2021학년도 입시가 점점 마무리되고 있는데요 이미 합격을 하신 분들 또는 곧 합격통지를 받을 분들 모두 대학생활에 대해 궁금증이 많을 거예요 대학생이 되면 과제와 공부를 하다보면 필요한 프로그램들이 상당히 있는데요 잘 찾아보면 대학생이라면 누릴 수 있는 혜택들이 많답니다 그래서 오늘은 대학생이라면 받을 수 있는 &#x27;윈도우 무료설치&#x27;에 대해 이야기 해보려합니다 이제 대학에 입학을 하면 많은 신입생분들이 하는 고민이 &#x27;이제 대학생이 돼서 노트북이 필요할 것 같은데 윈도우가 탑재된걸 살까 아니면 프리도스(윈도우 없는거)로 살까&#x27; 이거죠 윈도우가 있는 노트북과 프리도.......

[이모티콘 그리기 #3] 글로벌 이모티콘 및 국내 이모티콘의 특징(feat. 빡공단) [내부링크]

국내용 이모티콘과 글로벌 이모티콘은 서로 다른 특징을 가지고 있어요 그래서 이모티콘을 제작할 때는 국내용으로 만들것인지 글로벌용으로 만들것인지에 따라 접근과 기획하는 방식이 달라질 수 있답니다 국내 이모티콘의 특징 국내에서는 카카오톡 이모티콘이 거의 독점적으로 이모티콘을 서비스 하고 있죠 여기 이모티콘들은 메세지 전달보다는 트랜드를 따르는 경향이 있어요 그래서 글로벌적으로 쓰기에는 힘들 수도 있답니다 카카오톡의 경우 이모티콘 승인이 매우 어려워요 1년에서 1년반정도 도전을 해야 하나가 될까말까 하는 정도랍니다 이모티콘 트랜드를 만들어가고 국내 감성 및 인기를 반영한다는 장점이 있지만 독점이기 때문에.......

대학생이라면 이런 혜택도 있다구! (2) MS OFFICE365 무료로 설치하기 [내부링크]

대학생이 되면 절대 피할 수 없는 것이 있는데 그것이 바로 과제, 발표랍니다 근데 이걸 위해서는 문서작성 프로그램과 파워포인트가 필수적인데 이 프로그램들을 사려고 보니 가격이 만만치 않네요?!! 그렇다고 불법 다운로드를 하기에는 혹시 모를 바이러스와 내 마음속 양심이 걸리죠 그런데 말입니다 대학생이라면 워드, 파워포인트, 엑셀, 원드라이브 등등 오피스 관련 프로그램들을 무료로 다운 받을 수 있답니다 오늘은 그 방법에 대해 소개해보겠습니다 먼저 아래 링크로 들어갑니다 이 링크로 들어가면 오피스 365를 다운받을 수 있습니다 이때 필요한 것은 바로 학교 전자메일!!! 대학생임을 증명하기 위해서는 전자메일이 꼭 필요하니.......

1.1. 안드로이드란 무엇일까 [내부링크]

안드로이드란 세계에 사는 많은 사람들이 스마트폰을 사용하고 있는데요 스마트폰에 반드시 필요한 것이 바로 운영체제입니다 운영체제는 하드웨어와 소프트웨어를 연결하는 중요한 역할을 합니다 여러 스마트폰 운영체제가 있지만 그 중 대부분을 차지하는 스마트폰의 운영체제는 안드로이드와 ios입니다 제가 사용하는 스마트폰도 안드로이드폰이기 때문에 안드로이드용 앱을 만들어보고 싶다는 생각이 들었습니다 그래서 이지스 퍼블리싱에서 만든 &#x27;Do It! 안드로이드 앱 프로그래밍&#x27;이라는 책을 토대로 공부를 해보려고 합니다 안드로이드는 구글에서 만든 스마트폰용 운영체제입니다 ios는 애플에서 만든 모바일 운영체제를 의미.......

신입사원 상식사전(3) 장례식 조문 예절(feat. 빡공단) [내부링크]

오늘 다룰 내용은 장례식 조문 예절입니다 아직까지 저는 누군가의 장례식을 가본 적이 없습니다 그러나 훗날 장례식을 가야할 일이 생길 수 있기 때문에 장례식 조문 예절을 미리미리 알아두면 좋을 것 같다는 생각이 들었습니다 장례식을 갈 때 복장은 검은색 계열 옷이 필수입니다 예외인 경우는 부서가 단체로 조문을 가는 경우랍니다 유족이 고인을 부르는 호칭과 타인이 고인을 부르는 호칭은 약간의 차이가 있습니다 상황에 따라서 적절한 호칭을 사용해야겠습니다 조문방법은 각자 종교에 따라 다르게 조문할 수 있습니다 정식절차는 방명록-&#62; 분향,헌화-&#62; 재배 -&#62; 조문-&#62; 부의금 전달-&#62; 식사 순으로 진행되는데요 요즘은.......

신입사원 상식사전(4) 프로토콜 (feat. 빡공단) [내부링크]

이번에 다뤄볼 내용은 프로토콜입니다 프로토콜의 정의를 살펴보면 다음과 같습니다 컴퓨터와 컴퓨터 사이, 또는 한 장치와 다른 장치 사이에서 데이터를 원활히 주고받기 위하여 약속한 여러 가지 규약 프로토콜은 정보통신 분야에서 많이 사용되는 단어인데요 오늘 다룰 프로토콜은 컴퓨터 단어가 아닙니다 프로토콜의 다른 뜻인 바로 &#x27;의전&#x27;에 대해 얘기해보겠습니다 &#x27;의전&#x27;이란 예(禮)를 갖추어 진행되는 각종 행사 등에서 행해지는 예법을 뜻하는데요 공식적 관계에 적용할 때를 이르는 말입니다 높은 분들이 의전을 많이 따지시는데요 국가 의전의 순서를 살펴보자면 대통령-국회의장-대법원장-헌법재판소장 -국무총리.......

신입사원 상식사전(5) 전화가 매너를 만든다(feat. 빡공단) [내부링크]

오늘은 전화예절에 대해 알아보겠습니다 가끔씩 특정 상황일때 어떻게 전화를 받아야 할지 고민이 되죠 이번 강의를 통해 상황별 전화받기 예절을 마스터해보겠습니다 사무실에 있는 데 전화가 온다면? 회의중에 전화가 온다면? 어떤식으로 전화를 받아야 할까요 신입이 사무실에서 전화받는 방식 -&#62;&#34;반갑습니까 어디 어디팀 누구입니다&#34; 휴대폰전화를 받는 방법이 학생과 사회인을 구분하는 기준이 됩니다 &#x27;네 여보세요&#x27;라고 하는 대신 자신이 누구인지까지 소개해야 자신이 누구인지 확인하는 절차를 생략할 수 있답니다 가장 대략난감한 상황이죠 회의중에 전화가 온다면?? &#34;회의중인데 받으면 안되지&#34; 하면.......

[이모티콘 그리기 #1] 이모티콘 제작 A~Z까지 (feat. 빡공단) [내부링크]

판타블렛을 산 김에 뭔가를 만들어보고 싶어서 베어유에서 수강했던 강의입니다 이모티콘에 대한 관심도 많아지고 사회적으로 수요도 많은 것 같아서 저만의 이모티콘을 만들어보고 싶다는 마음이 들었죠 이번에 복습을 하면서 다시 한번 차근차근 내용을 곱씹어 보도록 하겠습니다 첫번째 강의는 마스터 소개와 이모티콘에 대한 설명이 주를 이뤘습니다 이모티콘 클래스를 맡는 김영삼 마스터는 카카오톡에서 유명한 &#x27;저승사자톡&#x27; 이모티콘을 만든 작가님입니다 이모티콘은 그림을 잘 그리거나 전공한 사람이 아니더라도 도전할 수 있는 분야라고 해요 그래서 실제로 많은 작가들이 학생, 가장주부랍니다 작가들마다 작업스타일이 다.......

[이모티콘 그리기 #2] 이모티콘 제작을 위한 소프트웨어 및 장비소개 (feat. 빡공단) [내부링크]

이번 포스팅에는 이모티콘 제작을 위한 소프트웨어와 장비를 소개해볼게요 사용 프로그램 이 강의는 누구나 따라할 수 있게 만들어서 가장 대중적인 어도비 프로그램을 이용해서 진행된다고 해요 일러스트레이터, 포토샵, 애니메이트 를 사용해서 이모티콘을 만들다고 합니다 어도비 프로그램 정품은 가격이 많이 나가지만 Adobe for students를 통해면 월 2만원대로 쓸 수 있더라구요 그래서 전 그렇게 결제해서 쓰고있어요 (어도비 학생할인을 받고 싶다면 아래를 클릭하세요) 각 프로그램을 쓰는 이유와 특징을 설명해보도록 할게요 일러스트레이터 일러스트레이터는 어도비에서 만든 벡터 제작 방식의 소프트웨어랍니다 주로 캐릭터와 로고 디.......

신입사원 상식사전(6) 우리 그정도 사이는 아니잖아요-SNS,카톡(feat. 빡공단) [내부링크]

부장님, 과장님, 책임님, 선임님, 주임님 같은 고참상사들이 나에게 SNS 계정을 물어본다면?? 어우 생각만 해도 난감하네요 오늘은 SNS친구를 맺거나 카톡친구가 되기는 먼 사이인 상사들이 인스타 계정 요청이나 페북 친구요청을 한다면 에 대한 이야기를 해보겠습니다 서로의 사생활은 터치하지 않고 궁금해하지 않는 것이 기본원칙입니다 서로의 SNS계정에 대해서는 Don&#x27;t ask, Don&#x27;t tell 이 기본이죠 그런데 그것이 내마음대로 되나요?? SNS도 관리해야 하는 것이 현실이랍니다 SNS로 근무회사 욕할 수도 있죠 표현의 자유니까요 그런데 들키면 곤란한 일이 발생할 수 있답니다 본인의 자유로운 정치적인 사상 같은 것을 물론 자.......

신입사원 상식사전(7) 문제가 없는게 문제다(feat. 빡공단) [내부링크]

문제를 해결하는 해결사가 되는 것 그게 바로 신입사원이 사랑받을 수 있는 방법중에 하나입니다 회의시간에 문제를 해결할 사람을 찾는데 모두가 고개를 숙일때 내가 나서게 되면 사랑받는 신입이 될 수 있습니다 업무량은 늘어나겠지만 능력을 인정받을 수 있는 좋은 기회로 활용할 수 있죠 그러려면 문제가 뭔지 먼저 알아야해요 나의 목표와 실제 현상사이의 차이를 문제라고 합니다 난 100만원을 팔고 싶은데 실제로는 50만원이 팔리고 있다면 그 차이가 문제입니다 &#34;목표(should be)&#34;라는 것은 어떻게 되면 좋은가를 나타내는 말입니다 내가 기대하는 수준을 의미하죠 &#34;현상(as is)&#34;은 어떻게 되고 있는가를 나타내는.......

신입사원 상식사전(8) 문제해결 방법(feat. 빡공단) [내부링크]

이번에는 좀 더 자세하게 문제해결 방법에 대해 소개해보도록 하겠습니다 문제해결 기법으로 소개할 방법은 바로 SMART한 기법입니다 S: Specific M: Measurable A: Action-oriented R: Reality-oriended T: Time-Phased 이렇게 5가지 기법을 의미하죠 S(Specific)은 문제를 구체적으로 작성했는가를 묻습니다 문제를 명확하게 인식하기 위한거죠 M(Measurable)은 문제가 측정가능한지 를 묻습니다 숫자나 수치로 표현할 수 있어야 한다 는 의미입니다 A(Action-oriented)는 문제가조치 가능한가 라는 의미입니다 어떤 문제에 대해 손댈 수 없는 요인이 아니라 실행이 가능한 문제해결 접근법인지를 의미합니다 R(Reality-oriented)는 문제가 현.......

신입사원 상식사전(9) 직장은 보고로 시작, 보고로 끝(feat. 빡공단) [내부링크]

생각만 해도 어려운 상사에게 나의 실수를 포함한 사소한 일들을 보고하는 것 생각만해도 등에서 식은땀에 흐를 것 같네요 그럼에도 불구하고 내가 무언가를 잘못했거나 문제가 생길 것 같으면 상사에게 열심히 보고해야 합니다 우리나라 속담중에 &#x27;호미로 막을 것 가래로 막는다&#x27;는 말이 있죠 초기에 하면 쉽게 해결될 일을 훗날 말해서 일이 커지게 되는 경우를 의미합니다 본인이 혼날 것 같다는 두려움을 극복하고 지속적으로 보고를 해야하는 이유입니다 보고의 종류에는 크게 세 가지가 있습니다 언제까지 할 수 있는지를 말하는 최초보고 현재까지의 진행상황을 얘기하는 중간보고 결과물의 행방을 말하는 결과보고 이렇게 세 가.......

대학 신입생들을 위한 사이트 모음(2) -코딩편 [내부링크]

이제 슬슬 정시 발표가 나고있네요 합격이 된 분들도 있을것이고 곧 합격발표가 나올 분들도 있을 거예요 &#34;자 그럼 이게 합격을 했으니 미리 공부를 해볼까??&#34; 하는 분들이 있을거예요 &#34;요즘은 코딩이 학과불문하고 필수라고 하니 미리 공부해놓으면 편하겠지??&#34; 라는 생각으로 온라인 코딩 클래스 여러곳을 찾아보셨을 겁니다 그런데 돌아다니다 보면 아셨겠지만 가격이.... 정말 후덜덜합니다 (강의가 몇십만원이라니???!!!) 코딩 1도 몰라서 안 공부하면 불안하고 독학으로 하자니 불안하고 그렇다고 이 강의로 배우기에는 가격이 너무 부담스럽다하는 생각이 들 겁니다 저는 공학계열 학과에 진학했는데 코딩을 진짜 하.......

2020 수원 카페&베이커리 페어)디저트특별관 [내부링크]

수카베에서 다양한 디저트특별관 행사가 열려요 아래 주소에 접속하면 참가업체의 다양한 디저트를 확인 할 수 있습니다. http://www.cafenbakeryfair.com/myboard/ma_galler5

2020 수원 카페&베이커리 페어) 상품권 [내부링크]

-수원 카페&#38;베이커리페어 박람회 현장에서 현금처럼 사용할 수 있는 상품권이 있어요 -수원 카페&#38;베이커리페어 기간 중 참가업체 부스에서 제품 구매 시 사용 할 수 있습니다. -사용방법 티몬에서 구매 후 수원컨벤션센터 로비(인포데스크)에서 실물 상품권으로 교환 후 사용하세요. (1인당 최대 4매) -유의사항 상품권은 현금으로 환불되지 않으며, 차액에 대해서도 현금으로 교환되지 않습니다. www.tmon.co.kr 에서 수원 카페&#38;베이커리페어 상품권을 50% 할인 된 가격에 구매하세요.

2020 수원 카페&베이커리 페어) SNS 인증 이벤트!! [내부링크]

수원 카페&#38;베이커리페어 현장 사진을 인스타그램과 페이스북에 올려보세요!! 7월 16일~19일까지 수원 카페&#38;베이커리페어 현장 사진이나 영상을 본인 SNS에 올려주세요. 현장 스탭에게 보여주고 ‘다트커피 드립백’을 받으세요 이벤트기간 : 7월 16일~19일 증정 경품 : 다트커피 드립백 증정 참여 대상: 수카베 모든 관람객 (매일 선착순 50명 / 총 200명) 참여가능 SNS : 인스타그램 / 페이스북 주의사항 : 1인 1회 응모 가능 경품 수령처 : 전시장 내 경품 지급처 부스

맛있는 디자인 3기 스터디)애프터 이펙트 2주 공부 후기 [내부링크]

우연한 계기로 SNS에서 맛있는 디자인 스터디 3기를 모집한다는 광고를 보게 되었습니다 마침 일러스트를 그리기 위해 어도비를 구매했는데 좀 더 다양한 어도비 프로그램을 공부하고 싶다는 생각이 들었습니다 영상편집도 항상 하고 싶다는 생각을 하고 있었는데 맛있는 디자인에서 3기 스터디로 일러스트레이터랑 애프터 이펙트로 진행한다고 하더라구요 그래서 고민없이 바로 신청했고 운이 좋게 스터디에 들어오게 되었습니다 교재를 구매한 후 정해진 분량만큼 스스로 공부하고 스터디 내용을 인증하는 방식으로 진행되었어요 많은 분들이 참여하셔서 저도 부끄럽지 않으려고 그 날에 해야하는 양은 다 끝내고 인증까지 했던것 같아요 처음.......

파블로 A610 plus V2 타블렛 언박싱(내돈내산!) [내부링크]

집에 오래있다보니 취미를 만들고 싶어서 이모티콘 클래스를 듣게 됐는데 강의를 듣다보니 타블렛이 필요할 것 같아서 구매했습니다 저는 이제 그림을 시작하는 초초보자이기 때문에 액정타블렛이 아닌 판타블렛을 구매했어요 대학생이라 주머니사정이 좋지 않기 때문에 가성비가 타블렛을 알아보다가 크기와 성능 가격면에서 마음에 드는 #파블로타블렛 을 구매했습니다 제품명은 파블로 A610 PLUS V2 이고요 2020년 7월에 나왔다고 해요 제가 알아본 제품들은 와콤 인튜어스, 가오몬, 이지드로잉이었는데요 와콤은 비싸고 가오몬은 뽑기운이고 이지드로잉은 끊김현상이 나타날 수 있다고 해서 파블로로 선택했어요 우리나라에 들어온지 얼마 안.......

파블로 타블렛으로 그림그려보기(feat. slader, 곰돌이) [내부링크]

저의 첫 타블렛을 개봉했으니 이제 쓸일만 남았습니다 그전에 드라이버를 설치해야 하니 공식홈페이지에 갑니다 공식홈페이지의 매뉴얼&#38;드라이버 탭에 들어가면 해당 제품과 맞는 드라이버가 있으니 설치하면 됩니다 최근에 오류개선을 위한 펌웨어도 나와서 그거도 같이 설치하면 돼요 제가 처음에 제품 드라이버만 설치하고 사용하니까 pc연결시 가로로 인식이 돼야하는데 세로로 인식이 되더라구요 그러니 저 펌웨어도 꼭 설치해주세요 드라이버 다운 받으면 생기는 폴더의 exe파일을 실행해주면 저렇게 알아서 설치가 됩니다 설치되면 바탕화면에 타블렛 세팅 바로가기가 형성돼요! setting에서 필압, 화면, 단축키도 설정할 수 있어요 왼.......

신입사원 상식사전(1)강의소개와 명함예절 (feat.빡공단) [내부링크]

사회적으로 취업이 굉장히 핫한 주제입니다 저도 곧 취준을 시작할 때가 오는데 내가 신입사원이 되면 기분이 어떨까 생각해보기도 합니다 그런데 내가 신입사원이 되면 잘할 수 있을까 걱정이 되기도 했습니다 명함은 어떻게 하는거지? 장례식 예절은? sns는 어떻게 해야하는거지? 생각이 끊임없이 들더군요 그래서 아직 취업을 준비할 때는 아니지만 미리미리 준비한다는 생각으로 베어유의 &#x27;신입사원 상식사전&#x27;강의를 듣게 되었습니다 내용을 보니 신입사원 뿐 아니라 저와 같은 학생에게도 유용한 내용들이 많았습니다 오늘은 1강과 2강에 대해 정리해보겠습니다 1강) 강의소개 1강은 우용표 강사님이 직장생활을 하시면서 느낀점.......

신입사전 상식사전(2) 회식예절 (feat. 빡공단) [내부링크]

알바를 하거나 모임이 있으면 회식이 빠질 수 없죠 회사에 신입이 들어오면 회식을 하게 됩니다 제가 나중에 취직을 해서 회식에 간다면 과연 잘 해낼 수 있을까 걱정이 되기도 하네요 이번 강의에서는 &#x27;삽겹살의 방정식&#x27;이 인상깊었어요 별거 아닌거 같지만 정말 중요하다고 하시네요 포인트는 인원수 x 1.5 라고 해요 그러니까 4명이 있으면 4 x 1.5 &#x3D;6인분을 주문하면 되는거죠 1인분씩은 적을 것 같고 2인분을 시키기에는 많을 것 같으니 1.5인분씩 주문하는 것이 최적이겠군요 요즘에는 사회적 분위기가 회식에서도 강요하거나 업무의 연장이거나 그런 일이 많이 줄었다고 해요 그러나 아직도 고전적인 회식인식이 남아있는.......

대학 신입생들을 위한 사이트 모음(1) [내부링크]

벌써 수시 발표가 나신 분들이 있고 곧 있으면 정시발표가 나지요 이제 신입생이 되는 분들은 설램과 걱정과 긴장이 공존할 겁니다 수강신청은 어떻게 하지? 강의내용을 못 알아들으면 어떻하지? 뭘 준비해야 하는거야? 이런 생각들은 저도 대학 신입생이 돼서 아무것도 모를 때 했던 생각들입니다 그런 저의 경험들을 토대로 해서 신입생 여러분들이 참고했으면 좋을 것 같은 사이트들을 한번 골라봤습니다 1. 한국 장학재단 여기는 매우매우 중요한 사이트입니다 국가 장학금을 받기 위해서는 한국장학재단에서 국가 장학금을 신청해야 해요 또한 다수의 대학교에서 성적장학금과 같은 교내장학금을 받기 위해서는 국가장학금 신청을 필수로 하.......

2020 수원카페&베이커리 페어)SNS 인증 이벤트!! [내부링크]

수원 카페&#38;베이커리페어 현장 사진을 인스타그램과 페이스북에 올려보세요!! 7월 16일~19일까지 수원 카페&#38;베이커리페어 현장 사진이나 영상을 본인 SNS에 올려주세요. 현장 스탭에게 보여주고 ‘다트커피 드립백’을 받으세요 이벤트기간 : 7월 16일~19일 증정 경품 : 다트커피 드립백 증정 참여 대상: 수카베 모든 관람객 (매일 선착순 50명 / 총 200명) 참여가능 SNS : 인스타그램 / 페이스북 주의사항 : 1인 1회 응모 가능 경품 수령처 : 전시장 내 경품 지급처 부스

2020 수원 카페&베이커리 페어)코로나19 예방 조치 시행 안내!! [내부링크]

안전한 전시장을 만들기 위하여 입장부터 퇴장까지 철저한 방역 계획을 준비합니다. 1. 마스크 착용 필수 2. 2회에 걸친 체온 체크 3. 손 소독은 무제한 4. 입장 대기 시 간격 유지 5. 입장객 전원 출입명부 작성(동선 확인) 6. 전시장 자체 추가 방역

매트랩 학습일지3) 변수, 연산자, 기본함수들 [내부링크]

&#60;변수 생성 규칙&#62; 1. 영문자 알파벳(대,소문자 구별), 밑줄(언더바라고도 부름, _), 0~9까지의 숫자가 변수에 포함된다. 2. 모든 변수는 반드시 문자로 시작해야 한다 3. 한 변수에 포함될 수 있는 문자는 최대 63개이다 4. 변수에는 마침표, 쉼표, 세미콜론, 콜론은 들어갈 수 없다 4. 변수의 각 문자들 사이에 공백은 들어갈 수 없다 4. 매트랩에서 제공하는 명령어와 같은 이름으로 변수를 만들 수 없다 5. 매트랩의 예약어(reserved word)들과 동일하게 변수이름을 만들 수 없다. (예약어 확인방법: 명령어 창에서 명령어 iskeyword)를 실행해본다) &#60;매트랩에서 제공하는 특수 상수&#62; - NaN : 수가 아니라는 의미 - pi : 원주율 파.......

2020수원 카페&베이커리 페어) 꿀팁세미나 [내부링크]

지난 15년 동안 300여회의 강연, 매출 향상 코칭, 메뉴 개발, 카페 창업 컨설팅 업무를 수행 해 온 카페 컨설팅 전문! ‘카공’과 ‘커피가능성’에서 카페 창업 예정자들과 개인카페 운영자들을 위해 꿀팁세미나를 준비했습니다. -날 짜 : 2020년 7월 16일(목) ~ 19일(일) -장 소 : 2020 수원 카페&#38;베이커리페어 행사장 내 세미나룸 (수원컨벤션센터) -스케줄 공통세미나(16일~19일) : 카페 음료메뉴 개발 과정과 시연(김종면, 임이슬 – 카공 음료개발팀) 메인세미나(16일) : 카페 디저트 구성(실제사례) (양동건 카공 대표) 메인세미나(17일) : 요즘 카페 창업 입문서(김은아 카공 총괄이사) 메인세미나(18일) : 우리 카페에 딱 맞는 카페.......

2020수원 카페&베이커리 페어 친추이벤트!! [내부링크]

-2020 수원 카페&#38;베이커리페어 ‘친추가 진짜다!’ 2020 수원 카페&#38;베이커리페어를 아직도 모르는 친구에게 알려주세요! 지금 사전등록하면 무료입장, 추첨을 통해 스타벅스 음료 쿠폰을 드립니다. (당첨자 - 사전등록자와 추천인 두 분 모두에게 지급합니다) -이벤트 기간 : 6월 3일~ 6월 20일까지 -당첨자 발표 : 6월 23일(화) 홈페이지&#38;SNS 및 개별 공지 -당첨자 경품 : 스타벅스 아메리카노 아래 배너를 누르면 이벤트 페이지로 바로 이동합니다.

2020수원 카페&베이커리 페어)커피 무료시음 이벤트 [내부링크]

페어에 가면 절대 놓쳐서는 안되는것이 있죠!! 바로 시음!!! 페어 갈때마다 커피 시음해보는데 맛있는 것들이 너무 많더라구요. 세상엔 맛있는 커피가 많아요ㅎㅎ 이번 수원 카페&#38;베이커리 페어에서는 스윗수트커피컴퍼니와 함꼐 관람객을 위한 커피존 무료 시음 이벤트를 준비했다고 해요 절대 놓치지 마세요!!! -날 짜 : 2020년 7월 16일(목) ~ 19일(일) -장 소 : 2020 수원 카페&#38;베이커리페어 행사장 內 F-123 (수원컨벤션센터) -스케줄 &#60;4일간&#62; 10:00~11:00 : 에스프레소 / 아메리카노 / 니트로커피 12:00~14:30 : 에스프레소 / 아메리카노 / 니트로커피 15:00~18:00 : 에스프레소 / 아메리카노 / 니트로커피 ※ 일정 및 음료.......

2020 수원 카페&베이커리 페어)디저트 특별관 [내부링크]

맛있는 음료과 뗄 수 없는 건 바로 달콤한 디저트죠!! 지난 2019년 수원 카페&#38;베이커리페어 당시 관람객의 관심과 침샘을 자극했던 디저트 특별관이 다시 돌아온다고 해요 커피와 어울리는 다양한 디저트가 한자리에!(지갑 열리는 소리 들리죠ㅎㅎㅎ) 현장 구매가 가능하지만 인기제품은 조기 품절 될 수 있다는 점을 꼭 참고 해 주세요! 또한 현장에서 사용 할 수 있는 특별한 상품권을 준비하고 있다는 소문이!! 상품권에 대한 자세한 안내는 다음번에 알려드립니다. 아래 배너를 누르면 디저트 특별관 안내 페이지로 연결됩니다

2020 수원 카페&베이커리 페어) 참가업체 이벤트 [내부링크]

2020 수원 카페&#38;베이커리페어에 참가하는 업체에서 이벤트를 준비 했다고 해요. 놓칠 수 없는 이벤트가 많네요ㅎㅎㅎㅎ 박람회장 방문 전 내용 확인하시고 꼭 참여하세요! 아래 이미지를 누르면 이벤트 페이지로 이동해요!! (1) 에버티 : 티테이스팅, 특가판매 이벤트(이미지 클릭!) (2) HRTC : 슈퍼푸룻 걱 주스 무료 시음회(이미지 클릭!) (3) 설롱디저트 : 부스에서 제품 구매 시, 마카롱 ‘미니꼬끄’ 증정(이미지 클릭!) (4) HRTC : 친환경 종이빨대 10% 할인 판매(이미지 클릭!)

2020 수원 카페&베이커리 페어)무료입장 사전등록기간 연장 [내부링크]

정말 많은 분들이 2020 수원 카페&#38;베이커리페어에 관심을 보여주고 있다고 해요!! 그래서 아직 무료입장 사전등록을 못하신 분들을 위해 이벤트성으로 기한을 연장하기로 결정하였다고 하네요. 7월 8일까지 등록하시면 무료로 관람 가능하니 아직 등록 안하신 분들은 얼른 등록하세요!! 7월 9일 이후 등록하시면 5,000원의 입장료가 발생하오니 꼭 미리 등록하시고 부담 없이 관람하세요. 아래 이미지를 누르면 사전등록 페이지로 연결됩니다.

2020 수원 카페&베이커리 페어)바이어(관련업계 종사자) 사전등록!! [내부링크]

일반 관람객과는 달리 바이어는 가간에 관계없이 사전등록을 할 경우 전시 기간 중 무료 입장이 가능합니다. 아래 배너를 누르면 안내 페이지로 연결됩니다

2020 수원 카페&베이커리 페어) 초대권 증정 이벤트 [내부링크]

수원 카페 베이커리 페어 진행본부에서 초대권 증정 이벤트를 한다고 해요. 같이 가고 싶은 친구가 있으신 분들은 이번 기회 놓치지 말고 이벤트에 응모하세요!! 이벤트 기간 : 6월 23일~7월 10일 당첨자 발표 : 7월 13일(월) 경품 : 무료 초대권(5매씩) 50명 (1)수원카페&#38;베이커리페어 인스타그램(@cafe_bakery) 팔로우하기 (2)이벤트 게시물에 좋아요 누르기 (3)댓글에 함께하고 싶은 친구3명 소환하면 응모 완료!! 아래 배너를 누르면 인스타그램 주소로 연결됩니다.

2020 수원 카페&베이커리 페어)수원 카페&베이커리페어가 선정 한 지상 최저가 핫-딜! [내부링크]

-핫딜 몰은 항상 열려있는 몰이 아니에요. 단 2주! 딱 2주! 만 오픈합니다. -전시장에서 판매하는 가격보다 할인 된 금액으로 먼저 사용 해 보세요! (핵인싸가 될 수 있습니다.) -먼저 구입하시고 후기를 남기면 추첨을 통해 전시장에서 현금처럼 사용할 수 있는 상품권(최대3천원)을 받을 수 있으니 혹시 봐두었던 제품이 있다면 이번 기회에 구매하세요!! !! 아직 오픈 전 입니다. 핫딜 몰 홈페이지 구축 중이라 웹주소는 별도로 없습니다. 핫딜 몰 오픈은 7월 6일입니다.!!

2020 수원카페&베이커리페어)빈칸퀴즈 맞추고 수카베 상품권 받으세요!! [내부링크]

문제 - 커피, 디저트, 베이커리, 카페창업아이템까지! 수도권에서 올 해 처음 열리는 커피 전시회의 행사명과 개최 날짜를 맞춰 주세요! 정답 - __월__일 / ㅅㅇㅋㅍ&#38;ㅂㅇㅋㄹㅍㅇ (1) 홈페이지 사전등록하기 (2) 인스타팔로우 (3) 퀴즈 정답을 #해시태크 로 남기면 응모 끝 이벤트 기간 : ~7월 14일(화)까지 당첨자 발표 : 7월 15일(수) 경품 수령처 : 7월 16일~19일 / 전시장 경품 수령처에서 확인 후 수령 참여인원 : 추첨을 통해 총 100명에게 수카페 상품권(3천원권) 증정!

매트랩 학습일지1) 기본 창 설명 [내부링크]

&#60; 매트랩 창 설명 &#62; 1) 명령어 창(command windonw) -변수를 생성하여 상수 값들을 저장 -생성한 변수를 명령어나 연산자를 이용하여 계산 위 과정을 통해 결과값을 얻는 창을 명령어 창이라 부른다 위 사진에서 &#x27;&#62;&#62;&#x27;을 포롬프트라 말하고 &#x27;|&#x27;를 커서라고 말한다 변수를 생성하거나 명령어를 입력하기 위해서는 프로프트 다음에 위치하는 커서에서 변수이름이나 명령어를 입력해야 한다. 위 사진과 같이 x&#x3D;3을 입력하고 엔터를 치면 바로 밑에 결과값이 나온다. &#x27;&#x3D;&#x27;은 대입의 의미이다. x&#x3D;3은 x라는 변수에 3을 대입했다는 의미. 같다의 의미가 아니다 x+y 같이 연산식을 적게 되면 결.......

매트랩 학습일지2) 명령어 창 유의사항 [내부링크]

&#60;명령어 창에서 작업할 때 유의사항 몇가지&#62; 1. 명령어 창에서는 대문자와 소문자를 구분하여 사용한다(서로 다른 문자로 해석된다) 2. 명령어 창에서 세미콜론(;)을 입력하면 실행결과가 화면에 출력되지 않는다. 3. 명령어 창의 한줄에 여러 명령을 입력할 때는 콤마(,)로 구분하자 이떄 명령어는 왼쪽에서 오른쪽으로 순차적으로 실행된다. 4. 이전에 실행한 명령어를 다시 가져오고 싶으면 방향키를 누르면 된다. up, down키를 눌러서 이전에 실행한 명령어를 선택하면 된다. (리눅스에서도 방향키를 가지고 이전에 실행한 명령을 다시 호출할 수 있다.)