yimstar9의 등록된 링크

 yimstar9로 등록된 네이버 블로그 포스트 수는 247건입니다.

[빅분기실기] 구글 코랩에서 R 써보기 [내부링크]

https://colab.research.google.com/notebook#create=true&language=r https://colab.to/r 두 사이트 들어가면 파이썬이 아닌 R로 코랩이 켜진 것을 확인 할 수 있다. -런타인 유형 변경 설정에서 유형이 R로 바껴있는것을 볼 수 있다.

[공유] OpenCV첫번째. 이미지를 띄워보자. [내부링크]

출처 Infra In HanYang|ㅇ승민ㅇ opencv영상 띄어보기 스크랩된 글은 재스크랩이 불가능합니다.

앙상블(Ensemble) [내부링크]

의사결정나무의 문제점을 ctree와 다른 방식으로 보완하기 위하여 개발된 방법 주어진 자료로부터 예측 모형을 여러 개 만들고, 이것을 결합하여 최종적인 예측 모형을 만드는 방법 배깅(Breiman, 1996) -> 부스팅 개발 -> 랜덤포레스트(Random Forest) 앙상블에서 사용되는 기법: 배깅, 부스팅, 랜덤포레스트   1. 배깅(Bagging) 불안정한 예측모형에서 불안전성을 제거함으로써 예측력을 향상 Where 불안정한 예측모형: 데이터의 작은 변화에도 예측 모형이 크게 바뀌는 경우 Bootstrap AGGregatING의 준말 주어진 자료에 대하여 여러 개의 부트스트랩(bootstrap)자료를 만들고, 각 부트스트랩 자료에 예측 모형을 만든 다음, 이것을 결합하여 최종 예측 모형을 만드는 방법 부트스트랩자료: 주어진 자료로부터 동일한 크기의 표본을 랜덤 복원 추출로 뽑은 것 실습. install.packages("party") install.packages("

서포트벡터머신(Support Vector Machine) [내부링크]

서포트벡터머신(Support Vector Machine)는 Corres와 Vapnik에 의해서 1995년에 제안되었다. 서포트벡터머신은 서포트벡터 분류기를 확장하여 비선형 클래스 경계를 수용할 수 있도록 개발한 분류 방법. 초평면(Hyperplane) 최대마진분류기(Maximum Margin Classifier): 데이터가 있을 때, 이것을 곡선이 아닌 직선이나 평면으로 구별하는 방법 초평면(Hyperplane): 최대 마진 분류기가 경계로 사용하는 선이나 면 분리 초평면(Separating Hyperplane): 데이터를 완벽하게 분리하는 초평면 마진(Margin): 데이터와 초평면의 수직 거리(가장 짧은 거리) 최대마진 초평면(Maximal Margin Hyperplane): 마진이 가장 큰 초평면 최대마진분류기(Maximum Margin Classifier): 데이터가 초평면에 의해 가장 잘 분류 서포트벡터(Support Vector): 양쪽 데이터의 경계값을 포함하는 초평면

군집분석(Cluster Analysis) [내부링크]

데이터 간의 유사도를 정의하고, 그 유사도에 가까운 것부터 순서대로 합쳐 가는 방법으로 그룹(군집)을 형성한 후 각 그룹의 성격을 파악하거나 그룹 간의 비교분석을 통해서 데이터 전체의 구조에 대한 이해를 돕고자 하는 탐색적인 분석 방법 유사도: 거리(distance)를 이용하는데 거리의 종류는 다양하지만, 가장 일반적으로 사용하는 것이 유클리디안(Euclidean)거리로 측정한 거리정보를 이용해서 분석대상을 몇 개의 집단으로 분류 군집 분석의 목적: 데이터 셋 전체를 대상으로 서로 유사항 개체 들을 몇 개의 군집으로 세분화하여 대상 집단을 정확하게 이해하고, 효율적으로 활용하기 위함. 군집 분석으로 그룹화된 군집은 변수의 특성이 그룹 내적으로는 동일하고, 외적으로는 이질적인 특성을 갖는다. 군집 분석의 용도는 고객의 충성도에 따라서 몇 개의 그룹으로 분류하고, 그룹별로 맞춤형 마케팅 및 프로모션 전략을 수립하는 데 활용된다. 군집 분석에서 중요한 사항: 군집화를 위해서 거리 측정에

연관분석(Association Analysis) [내부링크]

하나의 거래나 사건에 포함된 항목 간의 관련성을 파악하여 둘 이상의 항목들로 구성된 연관성 규칙을 도출하는 탐색적인 분석 방법 “장바구니 분석” 연관성규칙은 지지도(support), 신뢰도(confidence), 향상도(lift)를 평가척도로 사용 연관분석은 구매패턴을 분석하여 고객을 대상으로 상품을 추천하거나 프로모션 및 마케팅 전략을 수립하는데 활용 연관분석 특징 사건의 연관규칙을 찾는 데이터마이닝 기법 y변수가 없으며, 비지도학습에 의한 패턴 분석 방법 거래 사실이 기록된 트랜잭션(Transaction)형식의 데이터 셋을 이용 사건과 사건 간의 연관성을 찾는 방법 예) 기저귀와 맥주(Diapers vs. Beer) 이야기: Karen Heath는 1992년 맥주와 기저귀의 상관관계 발견 지지도(제품의 동시 구매패턴), 신뢰도(A제품 구매 시 B제품 구매패턴), 향상도(A제품과 B제품간의 상관성)을 연관규칙의 평가도구로 사용 활용분야: 상품구매 규칙을 통한 구매패턴

오류분류표(Confusion matrix) [내부링크]

1) 오류분류표 분류 분석 모형의 평가에 일반적으로 사용 목표 변수의 실제 범주와 모형에 의해 예측된 분류 범주 사이의 관계를 나타내는 표 예측치 합계 True False 실제값 True TP FN P False FP TN N 합계 P' N' P+N • TP(True Positives): 실제값과 예측치 모두 True인 빈도 • TN(True Negatives): 실제값과 예측치 모두 False인 빈도 • FP(False Positives): 실제값은 False이나 True로 예측한 빈도 • FN(False Negatives): 실제값은 True이나 False로 예측한 빈도   2) 오류분류표 활용 모형 평가 지표 (1) 정분류율(accuracy, recognition rate) • 전체 관측치중 실제값과 예측치가 일치한 정도 • 정분류율은 범주의 분포가 균형을 이룰 때 효과적인 평가지표 (2) 오분류율(error rate, misclassification rate) • 모형이 제대

XGBoost [내부링크]

Distributed(Deep) Machine Learning Community(DMLC) group 내 Tianqi Chen에 의한 연구 프로젝트로 시작. the Higgs Machine Learning Challenge 라는 Kaggle challenge에서 우승 solution으로 선정되어 알려졌고, 이후 xgboost를 이용하여 다른 Kaggle 경쟁에서도 다수 우승 (2015년동안 29개 Kaggle challenge 에서 17개의 solution 이 XGBoost를 사용) xgboost: 앙상블 학습기법으로 모델을 생성하는 분류모델 [표 15.6] 배깅과 부스팅 알고리즘 비교 분류 배깅(Bagging) 부스팅(Boosting) 공통점 전체 데이터 셋으로부터 복원추출방식. n개의 학습데이터 셋을 생성하는 부트스트랩 방식 사용 차이점 병렬학습방식: n개의 학습 데이터셋으로부터 n개의 트리 모델 생성 순차학습방식: 첫번째 학습 데이터 셋으로부터 트리모델 à 두번째 학습 데이터

인공신경망(Artificial Neural Network) [내부링크]

인간의 두뇌 신경(뉴런)들이 상호작용하여 경험과 학습을 통해서 패턴을 발견하고 이를 통해서 특정 사건을 일반화하거나 데이터를 분류하는데 이용되는 기계학습방법. 인간의 개입 없이 컴퓨터가 스스로 인지하고 추론하고, 판단하여 사물을 구분하거나 특정 상황의 미래를 예측하는데 이용될 수 있는 기계학습 방법 문자, 음성, 이미지 인식, 증권시장 예측, 날씨 예보 등 다양한 분야에서 활용. (1) 생물학적 신경망 구조 인간의 생물학적 신경망의 구조 수상돌기로부터 외부 신호를 입력받고 시냅스에 의해서 신호의 세기를 결정한 후 이를 세포핵으로 전달하면 입력신호와 세기를 토대로 신경자극을 판정하여 축색돌기를 통해서 다른 신경으로 전달 (2) 인공신경망과 생물학적 신경망의 비교 [그림 15.7] 생물학적 신경망과 인공신경망 생물학적 신경망 인공신경망 역할 수상돌기 입력신호(x) 외부 신호 받음 시냅스 은닉층 신호의 세기(weight)결정 세포핵 활성함수 신경자극에 대한 판정, 전달여부 결정 축색돌기

주성분 분석(Principal Component Analysis) [내부링크]

많은 변수로 구성된 데이터에 대해 주성분이라는 새로운 변수를 만들어 기존 변수보다 차원을 축소하여 분석을 수행 주성분 P1은 데이터 분산을 가장 많이 설명할 수 있는 것을 선택하고 P2는 P1과 수직인 주성분을 만들어 다중 공선성 문제를 해결 다중 공선성(MultiCollinearity): 독립변수 사이에 강한 상관관계가 나타나서 종속변수에 영향을 미치는 경우 완전 공선성: 독립 변수들 사이에 정확한 선형 관계가 존재하는 경우 다중 공선성 문제는 분석과 예측의 정확성을 위해서 피하거나 해결해야 한다.   실습. ### PCA data("iris") head(iris) # 변수간 상관관계 확인 cor(iris[1:4]) # 변수간 S.L와P.L, S.L와 P.W간의 상관관계 높음 # 다중공선성 문제 발생 예상 # 독립변수 새롭게 설계 필요 # 전처리 과정 iris2 <- iris[, 1:4] ir.species <- iris[,5] # 중앙을 0, 분산은 1로 설정 prcomp.re

판별분석(Discriminant Analysis) [내부링크]

판별 분석: 두개 이상의 모집단으로부터 표본이 섞였을 경우, 개별 경우에 대하여 그것이 어떤 모집단에 속하는지를 판별하기 위한 함수를 만들어서 데이터를 분류하는 방법 판별함수는 그룹 안 분산(Variance within group)에 비하여 그룹 간 분산(Variance between group)의 최대화로 얻어짐. 로직스틱 회귀분석과 많이 비교됨. 종류: 1) 선형(Linear)판별 분석: 정규 분포의 분산-공분산 행렬이 범주에 관계없이 동일한 경우 적용 2) 이차(Quadratic)판별 분석: 정규 분포의 분산-공분산 행렬이 범주별로 다른 경우 적용 1. 선형 판별 분석(Linear Discriminant Analysis) 선형 판별 분석: 데이터를 특정 축에 투영하여 데이터를 잘 구분할 수 있는 직선을 찾는 것을 목표로 하는 분석 방법 실습 #패키지 설치 install.packages("caTools") install.packages("MASS") library(caTools

시계열분석(Time Series Analysis) [내부링크]

시계열 그래프 그리기 http://wolfpack.hannam.ac.kr/Stat_Notes/softwares/about_R/GGPLOT_%EC%8B%9C%EA%B3%84%EC%97%B4%EA%B7%B8%EB%9E%98%ED%94%84.pdf 시계열 자료: 시간의 변화에 따라 관측치 또는 통계량의 변화를 기록해 놓은 자료 시계열 분석은 현재의 현상 이해를 기초로 미래를 예측하는 분석 방법 경기예측, 판매예측, 주식시장분석, 예산 및 투자 분석 등의 분야에서 활용 1. 시계열 분석 (Time Series Analysis) 시계열 분석: 어떤 현상에 대해서 시간의 변화량을 기록한 시계열 자료를 대상으로 미래의 변화에 대한 추세를 분석하는 방법   1.1 시계열분석의 특징 시계열분석은 설명변수와 반응변수를 토대로 유의수준에 의해서 판단하는 추론 통계방식 시계열분석의 특징과 분석에 사용되는 데이터 셋의 전제조건: y변수 존재: 시간 t를 설명변수(x)로 시계열을 반응변수(y)로 사용 미

베이지안(Baysian) [내부링크]

베이지안 확률 모델은 주관적인 추론을 바탕으로 만들어진 ‘사전확률’을 추가적인 관찰을 통한 ‘사후확률’로 업데이트하여 불확실성을 제거할 수 있다고 믿는 방법. 베이즈 정리는 posteriori확률을 찾는 과정이고 베이즈 추론을 MAP(Maximum a Posteriori)문제라고 부르기도 한다. 실습. install.packages("e1071") install.packages("caret") library(e1071) data <- read.csv(file = "heart.csv", header = T) head(data) str(data) library(caret) set.seed(1234) tr_data <- createDataPartition(y=data$AHD, p=0.7, list=FALSE) tr <- data[tr_data,] te <- data[-tr_data,] Bayes <- naiveBayes(AHD~. ,data=tr) Bayes predicted <- pr

변수 제거 [내부링크]

1. 주성분 분석 2. 0에 가까운 분산을 가지는 변수 제거 분산이 0에 가까운 변수는 제거해도 큰 영향이 없음. nearZeroVar()함수 https://www.rdocumentation.org/packages/caret/versions/6.0-86/topics/nearZeroVar where 'saveMetrics=FALSE'속성: 예측변수의 컬럼위치에 해당하는 정수 벡터 'saveMetrics=TRUE'속성: 컬럼을 가지는 데이터프레임 freqRatio: 가장 큰 공통값 대비 두번째 큰 공통값의 빈도의 비율 percentUnique: 데이터 전체로 부터 고유 데이터의 비율 zeroVar: 예측변수가 오직 한개의 특이값을 갖는지 여부에 대한 논리 벡터 nzv: 예측변수가 0에 가까운 분산예측 변수인지 여부에 대한 논리 벡터 실습. install.packages("caret") library(caret) install.packages("mlbench") library(mlben

다차원 척도법(Multi-dimensional Scaling) [내부링크]

여러 대상의 특징 사이 관계에 대한 수치적 자료를 이용하여 유사성에 대한 측정치를 상대적 거리로 구조화하는 방법 2차원 또는 3차원에서의 특정 위치에 관측치를 배치해서 보기 쉽게 척도화 즉, 항목 사이 거리를 기준으로 하는 자료를 이용하여 항목들의 상대적인 위치를 찾고 거리가 가까운 개체들끼리 Group 화 하여 분류할 수 있다. 다차원 척도법 적용 절차 1) 자료 수집: 특성을 측정 2) 유사성, 비유사성 측정: 개체 사이의 거리 측정 3) 공간에서 개체 사이 거리 표현 4) 개체의 상호 위치에 따른 관계가 개체들 사이 비유사성에 적합여부 결정 다차원 척도법의 종류 1) 계량적(전통적) 다차원 척도법(Classical MDS) 숫자 데이터로만 구성. stats패키지의 cmdscale()함수 https://www.rdocumentation.org/packages/stats/versions/3.6.2/topics/cmdscale   실습 eurodist 데이터를 이용하여 유럽 주요 도

의사결정 나무(Decision Tree) [내부링크]

CART(Classification and Regression Tree) 가장 많이 쓰는 기법 C4.5 & C5.0 CART와 다르게 node에서 다지분리(Multiple Split)이 가능 CHADID(Chi-squared Automatic Interaction Detection) 범주형 변수에 적용 가능   4.1 의사결정 트리(Decision Tree) 의사결정트리 방식은 나무(Tree)구조 형태로 분류 결과를 도출 (1) party 패키지 이용 분류분석 조건부 추론 나무 CART기법으로 구현한 의사결정나무의 문제점 1) 통계적 유의성에 대한 판단없이 노드를 분할하는데 대한 과적합(Overfitting) 발생 문제. 2) 다양한 값으로 분할 가능한 변수가 다른 변수에 비해 선호되는 현상 이 문제점을 해결하는 조건부 추론 나무(Conditional Inference Tree). party패키지의 ctree()함수 이용 실습 (의사결정 트리 생성: ctree()함수 이용) 1단계

error ModuleNotFoundError: No module named 'tensorflow.keras' [내부링크]

ModuleNotFoundError Traceback (most recent call last) in () 1 import tensorflow as tf ----> 2 from tensorflow.keras.models import Sequential 3 from tensorflow.keras.layers import Dense 4 from tensorflow.keras.optimizers import SGD 5 ModuleNotFoundError: No module named 'tensorflow.keras' 기존 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras.optimizers import SGD 수정 후 from tensorflow.python.keras.models import Sequential from tensorflow.

Error Could not locate zlibwapi.dll. Please make sure it is in your library path [내부링크]

https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html Installation Guide :: NVIDIA Deep Learning cuDNN Documentation Abstract This cuDNN 8.7.0 Installation Guide provides step-by-step instructions on how to install and check for correct operation of NVIDIA cuDNN on Linux and Microsoft Windows systems. For previously released cuDNN installation documentation, refer to... docs.nvidia.com 에서 zlib를 받아서 압축푼후 zlib123dllx64폴더 전체를 환경변수에 추가해준다. 그리고 안에 zlibwapil.dll 파일을 C:\Windows\System32 C

파이참 텐서플로 Pycharm에 tensorflow-gpu 설치 [내부링크]

1. 텐서플로-gpu 설치 pip install --upgrade tensorflow-gpu --user 2. 그래픽드라이버 설치 https://www.nvidia.com/Download/index.aspx?lang=kr Download the latest official NVIDIA drivers Download the latest official NVIDIA drivers www.nvidia.com 3. cuda 설치 https://developer.nvidia.com/cuda-toolkit-archive CUDA Toolkit Archive Previous releases of the CUDA Toolkit, GPU Computing SDK, documentation and developer drivers can be found using the links below. Please select the release you want from the list below, and b

분산분석(ANOVA Analysis) (F-검정) [내부링크]

T-검정과 동일하게 평균에 의한 차이 검정 방법 두 집단 이상의 평균 차이를 검정 분석분석을 시행할 때 주의점: • 1개의 범주형 독립변수와 종속변수 간의 관계를 분석하는 일원 분산분석과 두 개 이상의 독립변수가 종속변수에 미치는 효과를 분석하는 이원 분산분석으로 분류. • 독립변수는 명목척도(성별), 종속변수는 등간척도나 비율척도로 구성되어야 한다. • 마케팅전략의 효과, 소비자 집단의 반응 차이 등과 같이 기업의 의사결정에 도움을 주는 비계량적인 독립변수와 계량적인 종속변수 간의 관계를 파악할 때 이용한다 만일 ANOVA 가 아닌 여러 번 t 검정을 하면 안되나? -> 1종 오류가능성이 증대됨 예) 세 집단을 비교하기 위해서는 세 번의 독립표본 t 검정을 수행하여야 함. 각 t 검정에서 유의수준을 0.05로 설정하였다면, 세 번 모두 귀무가설이 맞는데 귀무가설을 기각하지 않은 옳은 결정을 할 확률은 0.95 0.95 0.95 = 0.86, 1종 오류는 0.14 분산분석에서 집

회귀분석(Regression Analysis) [내부링크]

회귀분석(Regression Analysis) 회귀분석: 특정 변수(독립변수)가 다른 변수(종속변수)에 어떠한 영향을 미치는 가를 분석하는 방법 인과관계가 있는지를 분석하는 방법 where 인과관계: 변수 A가 변수 B의 값을 변하게 하는 원인이 되는 관계. 이때 변수 A를 독립변수, 변수 B를 종속변수로 지칭 한 변수의 값을 가지고 다른 변수의 값을 예측해 주는 분석방법 상관관계 분석 vs. 회귀분석 차이점 1) 상관관계 분석: 변수 간의 관련성 분석 2) 회귀분석: 변수 간의 인과관계 분석 회귀분석의 특징 1) 가장 강력하고 사용범위가 넓은 분석 방법 2) 독립변수가 종속변수에 영향을 미치는 변수를 규명하고, 이들 변수에 의해서 회귀방정식(Y=a+bX where a: 상수, b: 회귀계수, X: 독립변수, Y: 종속변수)을 도출하여 회귀선을 추정 3) 회귀계수는 단위시간에 따라 변하는 양(기울기)이며, 회귀선을 추정함에 있어 최소자승법을 이용 4) 독립변수와 종속변수가 모두 등간

로지스틱 회귀분석(Logistic Regression Analysis) [내부링크]

종속변수와 독립변수 간의 관계를 나타내어 예측 모델을 생성한다는 점에서 선형 회귀분석 방법과 유사 로지스틱 회귀분석의 특징 - 분석 목적: 종속변수와 독립변수 간의 관계를 통해서 예측 모델 생성 - 회귀분석과 차이점: 종속변수는 반드시 범주형 변수(예, Yes/No, iris데이터의 species) - 정규성: 정규분포 대신에 이항분포를 따른다. - 로짓 변환: 종속변수의 출력범위를 0과 1로 조정하는 과정(예, 혈액형 A [1, 0, 0, 0] - 활용분야: 의료, 통신, 날씨 등 다양한 분야   실습 (날씨 관련 요인 변수로 비(rain) 유무 예측) install.packages("ROCR") library(car) library(lmtest) library(ROCR) 1단계: 데이터 가져오기 weather = read.csv("weather.csv", stringsAsFactors = F) dim(weather) head(weather) str(weather) 2단계: 변

변수 선택 [내부링크]

회귀모델에서 독립변수의 증가는 모델의 결정계수를 증가시켜 설명력을 높이는 장점이 있지만 다중 공선성 문제를 일으킬 수 있어서 추정의 신뢰도를 저하시킬 수 있고, 독립변수가 많을 경우 예측성능이 좋지 않을 가능성이 많고 독립성, 등분산성 등의 가정을 만족시키기 어렵기 때문에 독립변수를 줄일 필요가 있다. 전진 선택법(Forward Selection): 절편만 있는 모델에서 기준 통계치를 가장 많이 개선시키는 변수를 차례로 추가 후진 제거법(Backward elimination): 모든 변수가 포함된 모델에서 기준 통계치에 가장 도움이 되지 않는 변수를 하나씩 제거하는 방법 단계선택법(Stepwise selction): 모든 변수가 포함된 모델에서 출발하여 기준 통계치에 가장 도움이 되지 않는 변수를 삭제하거나, 모델에서 빠져 있는 변수 중에서 기준 통계치를 가장 개선시키는 변수를 추가. 이렇게 변수의 추가 또는 삭제를 반복. 또는 절편만 포함된 모델에서 시작해 변수의 추가, 삭제를 반

상관관계 분석 [내부링크]

상관관계분석(Correlation Analysis): 변수들 간의 관련성을 분석하기 위해 사용하는 분석 방법 하나의 변수가 다른 변수와 관련성이 있는지, 있다면 어느 정도의 관련성이 있는지를 개관할 수 있는 분석기법 상관관계 분석 수행 시, 회귀분석에서 변수 간의 인과관계를 분석하기 전에 변수 간의 관련성을 분석하는 선행자료 (가설검정 전 수행) 로 이용 변수 간의 관련성을 위해 상관계수인 피어슨(Pearson) r 계수를 이용하여 관련성 유무와 정도를 파악 상관관계 분석의 척도인 피어슨 상관계수(Pearson correlation coefficient: r)와 상관관계의 정도는 [표 14.3] [표 14.3] 피어슨 상관계수와 상관관계 정도 피어슨 상관계수 R 상관관계 정도 ± 0.9 이상 매우 높은 상관관계 ± 0.9 ~ ± 0.7 높은 상관관계 ± 0.7 ~ ± 0.4 다소 높은 상관관계 ± 0.4 ~ ± 0.2 낮은 상관관계 ± 0.2 미만 상관관계 없음 상관계수 r은 -1

요인분석 (Factor Analysis) [내부링크]

요인분석: 변수들의 상관성을 바탕으로 변수를 정제하여 상관관계 분석이나 회귀분석에서 설명변수(독립변수)로 사용된다. 1. 요인분석 요인분석(Factor Analysis): 다수의 변수를 대상으로 변수 간의 관계를 분석하여 공통 차원으로 축약하는 통계기법 요인분석 1) 탐색적 요인분석: 요인 분석을 할 때 사전에 어떤 변수들끼리 묶어야 한다는 전제를 두지 않고 분석하는 방법 2) 확인적 요인 분석: 사전에 묶일 것으로 기대되는 항목끼리 묶였는지를 조사하는 방법 타당성: 측정 도구가 측정하고자 하는 것을 정확히 측정할 수 있는 정도 논문 작성을 위한 통계분석 방법에서 인구통계학적 분석(빈도분석, 교차분석 등)을 시행한 이후 통계량 검정 이전에 구성 타당성(Construct validity)검증을 위해서 요인분석(Factor Analysis) 시행 요인분석을 위한 전제조건 하위요인으로 구성되는 데이터 셋이 준비되어 있어야 한다. 분석에 사용되는 변수는 등간척도나 비율척도여야 하며, 표

R과 Python을 이용한 빅데이터 분석 및 시각화 [내부링크]

첨부파일 A4팀 R과 Python에 기반한 데이터 분석 및 시각화.pdf 파일 다운로드 첨부파일 R.zip 파일 다운로드 첨부파일 Python.zip 파일 다운로드 첨부파일 Dataset.zip 파일 다운로드 깃허브 https://github.com/yimstar9/Big-Data-Analysis_with-Python-and-R/tree/main/Source%20CODE 포트폴리오 내용이 100페이지가 넘어서 블로그에는 요약본만 올려놓겠습니다. 목차 1. USD/KRW 환율 데이터 분석 2. 위스콘신 유방암 데이터 분석 3. BostonHousing 데이터 분석 4. diamonds 데이터 군집분석 5. 텍스트분석 6. R과 Python의 시각화(차트) 패키지 비교 7. 출처 및 참고자료 8. 소스별첨 1. USD/KRW 환율 데이터 분석 USD/KRW 환율 1년치 일일 데이터로 ARIMA모델을 이용하여 2022년 12월 우리나라 미국 달러 대비 원화 환율을 예측하고 시각화를 해본다

기술통계분석 [내부링크]

1.1 빈도분석 빈도분석(Frequency Analysis) 명목척도 또는 서열척도 같은 범주형 데이터를 대상으로 비율을 측정하는데 주로 이용 명목척도: 명목상 의미 없는 수치로 표현. 예) 거주지역, 성별 서열척도: 계급 순위를 수치로 표현. 예) 직급, 학력 수준 빈도수, 비율 등으로 나타냄 1.2 기술통계분석 등간척도나 비율척도와 같은 연속적 데이터를 분석할 때 이용 등간척도: 속성의 간격이 일정한 값을 갖는 변수. 예) 만족도 조사의 보기 절대 특성에 원점이 척도. 0을 기준으로 한 수치. 비율척도: 등간척도의존재하는 사칙연산이 가능. 예) 성적, 나이, 수량, 길이, 금액2 2. 척도별 기술통계량 구하기 실습 (전체 데이터 셋의 특성 보기) 1단계: 데이터 셋 가져오기 setwd("C:/Rwork/ ") data <- read.csv("descriptive.csv", header = TRUE) head(data) 2단계: 데이터 셋의 데이터 특성 보기 dim(data) le

교차분석과 카이제곱 검정 [내부링크]

교차분석: 두 개 이상의 범주형 변수를 대상으로 교차 분할표를 작성하고, 이를 통해서 변수 상호 간의 관련성 여부를 분석 특히 빈도분석 결과에 대한 보충자료를 제시하는데 효과적 카이제곱 검정: 교차분석으로 얻어진 교차 분할표를 대상으로 유의확률을 적용하여 변수 간의 독립성 및 관련성 여부 등을 검정하는 분석 방법 1. 교차분석 교차검정(Cross Table Analyze): 범주형 자료(명목/서열 척도)를 대상으로 두 개 이상의 변수들에 대한 관련성을 알아보기 위해서 결합분포를 나타내는 교차 분할표를 작성하고 이를 통해서 변수 상호간의 관련성 여부를 분석하는 방법 교차분석은 빈도분석의 특성별 차이를 분석하기 위해 수행하는 분석방법으로 빈도분석 결과에 대한 보충자료를 제시하는데 효과적 연구 환경에서 변수(독립/종속 변수)를 확인하여 모델링한 후 범주형 데이터로 변환하는 변수 리코딩 과정을 거친다. 대상변수를 분할표로 작성하기 위해서는 데이터프레임을 생성해야 한다. 변수 모델링: 특정

집단간 차이분석 [내부링크]

1. 추정과 검정 1.1 점 추정과 구간 추정 [표13.1] 점추정과 신뢰구간 추정 1.2 모평균의 구간 추정 표본 평균이 따르는 분포 ~N(μ, σ^2/n) 모표준편차 σ의 값이 알려지지 않는 경우 표본의 크기 n이 충분히 클 때 (n>= 30)는 표본표준편차 S 사용 [표 13.2] 신뢰도와 모평균 신뢰구간 실습 (우리나라 중학교 2학년 남학생의 평균 신장 표본조사) 우리나라 중학교 2학년 남학생의 평균 신장 표본 조사를 위한 검정 통계량은 다음과 같다. 전체 표본 크기(N): 10,000명 표본 평균(X): 165.1cm 표본 표준편차(S): 2cm N = 10000 X = 165.1 S = 2 low <- X -1.96 * S / sqrt(N) high <- X + 1.96 * S / sqrt(N) low; high 신뢰수준 95%의 모평균 신뢰구간: 165.0608 ≤ c ≤ 165.1392 실습 (신뢰구간으로 표본오차 구하기) high - X (low - X) * 100

22.12.3 빅분기 실기 시험 [내부링크]

일반 학원에서 국가시험 보는건 처음인듯. 10시에 시험 시작 집앞이라 가는데 걱정없었다. 컴퓨터로 시험보는데 미리 온 사람들은 컴퓨터로 이것저것 연습해보거나 그전에 공부했던 자료들을 본다. 시험보는 웹IDE주소는 9시 30분쯤 칠판에 공개했다. 9시 59분까지도 핸드폰, 컴퓨터 사용가능했다. 문득 든 생각인데 시험 주소를 외부사람에게 알려주거나 메모장에 미리 필답형 문제를 적어놓으면 어떻게 되는거지? 감독관이 발견못하면 모르는건데 부정행위 하는사람도 은근 있었을 것 같다.

왜도, 첨도, 히스토그램, 기술통계랑 [내부링크]

왜도 평균을 중심으로 하는 확률분포의 비대칭 정도를 나타내는 지표. 분포의 기울어진 방향과 정도를 나타내는 양 >0 : 분포의 오른쪽 방향으로 비대칭 꼬리가 치우침 <0 : 분포의 왼쪽 방향으로 비대칭 꼬리가 치우침 =0 : 평균을 중심으로 좌우대칭 첨도 표준정규분포와 비교하여 얼마나 뾰족한가를 측정하는 지표 =0 (또는 3) : 정규분포 곡선 >0 : 정규분포보다 뾰족한 형태 <0 : 정규분포보다 완만한 곡선 형태 ※ 첨도식에서 -3을 적용하지 않으면 정규분포의 첨도는 3 #1단계: 왜도와 첨도 사용을 위한 패키지 설치 install.packages("moments") library(moments) cost <- data$cost #2단계: 왜도 구하기 skewness(cost) #3단계: 첨도 구하기 kurtosis(cost) # kurtosis()함수에서 첨도 식에서 -3을 미 적용 -> 정규분포첨도는 3 #4단계: 히스토그램으로 왜도와 첨도 확인 hist(cost) par(m

척도별 기술통계량 [내부링크]

명목척도 기술통계량 명목상 의미 없는 수치로 표현된 거주지역이나 성별과 같은 명목척도 변수를 대상 구성비율은 표본의 통계량으로 의미 #성별 변수의 기술통계량과 빈도수 length(data$gender) summary(data$gender) table(data$gender) #이상치(outlier) 제거 data <- subset(data, gender == 1 | gender == 2) x <- table(data$gender) x barplot(x) #구성 비율 계산 prop.table(x) y <- prop.table(x) round(y * 100, 2) 실습 m <- matrix(1:4, 2) m prop.table(m, 1) prop.table(m, 2) 서열척도 기술통계량 계급 순위를 수치로 표현한 계급이나 학력 수준 등과 같은 서열척도 변수를 대상 table()함수로 구해진 빈도수를 통해서 표본의 통계량 산출 #학력수준 변수를 대상으로 구성 비율 산출 length(dat

[빅분기 실기] t1-25-sigmoid [내부링크]

[심화 학습] basic1 데이터에서 f2 값에 시그모이드 함수(그림 내 수식)를 적용하고, f4가 ISFJ인 (변경된)f2의 합을 구하시오! (소수점 둘째자리까지 출력, 반올림) https://www.kaggle.com/code/yimstar9/t1-25-sigmoid t1-25-sigmoid Explore and run machine learning code with Kaggle Notebooks | Using data from Big Data Certification KR www.kaggle.com library(dplyr) df<-read.csv("../input/bigdatacertificationkr/basic1.csv") sigmoid<-function(x){ y<-1/(1+exp(-x)) return(y) } ans<-df%>%mutate(pre_f2=sigmoid(f2))%>%filter(f4=='ISFJ')%>%summarise(sum=round(sum(pre_f2

[빅분기 실기] T1-25 문자열 슬라이싱 [내부링크]

데이터에서 f4가 E로 시작하면서 부산에 살고 20대인 사람은 몇 명일까요? https://www.kaggle.com/code/yimstar9/t1-27-str-slicing/edit t1-27-str_slicing Explore and run machine learning code with Kaggle Notebooks | Using data from Big Data Certification KR www.kaggle.com library(dplyr) df <- read.csv("../input/bigdatacertificationkr/basic1.csv") df_E<-df[grep("^E",df$f4),] ans<-df_E%>%filter(city=='부산'&(age)%/%10==2)%>%nrow() print(ans)

빅분기 실기 5회 후기 및 복원,가답안 [내부링크]

단답형 구글에서 개발 하였으며, 방대한 양의 데이터를 신속하게 처리하는 분산 병렬 데이터 처리 기술은? 맵리듀스 데이터 내부에 데이터 구조에 대한 메타정보를 갖고 있기 때문에 어떤 형태를 가진 데이터인지 파악하는 것이 중요한 데이터 형식은 무엇인가 반정형데이터 소수 클래스의 데이터를 복제 또는 생성하여 데이터의 비율을 맞추는 방법으로 정보가 손실되지 않는다는 장점이 있으나, 과적합을 초래 할 수 있다. 과대표집 데이터의 전부 또는 일부분을 대체값(공백, 노이즈 등)으로 변환하는 비식별화 방법 / 개인의 사생활 침해를 방지하고 통계 응답자의 비밀사항은 보호하면서 통계자료의 유용성을 최대한 확보할 수 있는 데이터변환 방법은? 데이터마스킹 예측 10 20 30 40 실제 9 18 32 44 rmse 구하기 5 ( )는 dying ReLU 현상을 해결하기 위해 제시된 함수 ReLU는 x<0에서 모든 값이 0이지만, ( )는 작은 기울기를 부여함 Leaky ReLU ARIMA에 대한 설명 얼

[빅분기 실기] kaggle로 공부법(독학) [내부링크]

퇴근후딴짓님 유튜브 주소 https://www.youtube.com/@ai-study Kaggle주소 https://www.kaggle.com/datasets/agileteam/bigdatacertificationkr 유투버(퇴근후딴짓)님의 kaggle입니다. 혼자 공부하기에 너무 정리가 잘되어 있어서 추천드립니다. 여기서 진행했던 스터디 그룹도 도움이 매우 많이 됐습니다. kaggle 회원가입후 로그인을 하세요 > View more을 누르고 스크롤 조금 아래로 내리면 > 본인이 선택한 언어를 클릭해줍니다. > 본인이 이 문제 코드를 작성한적이 있으면 Edit My Copy이라고 뜨고 없으면 Copy&Edit가 뜹니다. 클릭해줍니다. > 기존 작성되어있는 코드는 주석처리하시고 새로 작성하시면 됩니다. > File에 Editor Type으로 노트북, 스크립트를 선택 할 수 있습니다.(시험환경은 script) > Ctrl+Enter로 한줄,블럭 실행도 가능하고 RunAll로 소스 전체

빅분기 실기 가이드 및 공부 자료, 22년 후반기 빅분기~ADsP 후기 [내부링크]

시험순서(빅분기필기-ADsP-빅분기실기) 시험이 한달 간격으로 있어서 준비하기 좋았습니다. 전공은 로봇공학으로 통계쪽 지식은 전혀 없는 상태였고 프로그래밍 언어는 C,C++만 주로 했었습니다. 10월 1일 빅분기 필기 9월 초부터 빅분기 필기를 공부하며 파이썬과 R 기초를 공부했습니다. 파이썬과 R은 C언어를 알고있으니 쉬운편이였는데 빅분기 내용은 대부분이 처음보는 내용이여서 외우는데 꽤 고생좀 했습니다. 시험 전날까지 파이썬,R은 하루에 4시간 정도씩 해서 끝냈고, 빅분기는 2시간 정도씩 공부했습니다. 필기 내용을 100% 이해(이해하려고 유툽영상, 정리된 내용 찾아 따로 공부 했으나 50%정도 밖에 이해를 못했습니다)는 하지 못한채 단순히 외우기만 해서 시험마치고 나온 순간에도 합격 자신이 없었습니다. 검토하면서 답안지에 옮겨적었는데 그때 답을 7개정도 고쳐쓴게 6개가 맞아서 70점대로 간신히 합격했습니다. 10월 29일 ADsP 필기 카페에서는 ADsP내용이 빅분기내용에 포함된

[빅분기 실기] R,Python 베이스라인, 기본코드 [내부링크]

전처리,튜닝 하나도 없이 train셋으로 학습, test셋 예측후 제출만 하셔도 기본점수는 받으실 수 있습니다. 아래 코드가 베이스라인 코드이며 여기에 전처리과정, 다양한모델 생성, 하이퍼파라미터 튜닝등 살을 붙이면 훌륭한 예측모델이 될 것입니다. R # 라이브러리 추가 library(randomForest) # 데이터 불러오기 X_train<-read.csv("../input/big-data-analytics-certification-kr-2022/train.csv") X_test<-read.csv("../input/big-data-analytics-certification-kr-2022/test.csv") # ID컬럼 버림 train<-X_train[,-1] test<-X_test[,-1] # 학습 및 예측 m2_rf<-randomForest(Segmentation~.,train,ntree=200) p2_rf<-predict(m2_rf,test) # csv 파일 만들기 resul

[빅분기 실기 R] Factor 변수 levels 통일 [내부링크]

> table(train$Employment.Type) Government Sector Private Sector/Self Employed 434 1056 > table(test$Employment.Type) Casual employment Government Sector 3 134 Private Sector/Self Employed 360 서로 레벨이 같지 않아 모델생성 및 예측에서 Error: `data` and `reference` should be factors with the same levels. 에러가 발생한다. 해결하고자 levels(레벨개수 적은쪽)<-levels(레벨개수 많은쪽) 해줬더니 > table(train$Employment.Type) Casual employment Government Sector 434 1056 Private Sector/Self Employed 0 > table(test$Employment.Type) Casual employment Go

[빅분기 실기 R] 기출2회 작업2형 2회독 [내부링크]

#https://www.kaggle.com/code/limmyoungjin/tutorial-t2-2-r/notebook # %% [markdown] # ## 전자상거래 배송 데이터 # ### 제품 배송 시간에 맞춰 배송되었는지 예측모델 만들기 # 학습용 데이터 (X_train, y_train)을 이용하여 배송 예측 모형을 만든 후, 이를 평가용 데이터(X_test)에 적용하여 얻은 예측값을 다음과 같은 형식의 CSV파일로 생성하시오(제출한 모델의 성능은 ROC-AUC 평가지표에 따라 채점) # # ![image.png](attachment:f70c3a4b-9984-4656-af95-dac047a900cb.png) # # [시험용 데이터셋 만들기] 코드는 예시문제와 동일한 형태의 X_train, y_train, X_test 데이터를 만들기 위함임 # # (유의사항) # - 성능이 우수한 예측모형을 구축하기 위해서는 적절한 데이터 전처리, 피처엔지니어링, 분류알고리즘, 하이퍼파라미터 튜

ADsP 데이터 분석 준 전문가 최종 합격 [내부링크]

사전 공개 점수에서 변동없음. 100점 목표로 공부를 했는데 아쉬움이 ㅠ 이제 6일남은 빅분기 실기도 마무리 단계이다.

[빅분기 실기] 주관식 오답노트 99문제(feat.수제비)_빅데이터 분석기사 실기 (주관식 단답형) [내부링크]

수제비 책 문제 오답노트 99개 모음 이것만 달달 외우면 작업1형은 문제없을듯

[빅분기 실기 R] 모의고사1 작업2형 [내부링크]

https://www.kaggle.com/code/agileteam/mock-exam-t2-baseline-tutorial [MOCK EXAM] T2. Baseline Tutorial Explore and run machine learning code with Kaggle Notebooks | Using data from multiple data sources www.kaggle.com ################## 시험 안내 문구 및 코드 ################## # 출력을 원하실 경우 print() 함수 활용 # 예시) print(df.head()) # getcwd(), chdir() 등 작업 폴더 설정 불필요 # 파일 경로 상 내부 드라이브 경로(C: 등) 접근 불가 # 데이터 파일 읽기 예제 library(dplyr) library(randomForest) library(caret) library(ModelMetrics) o_X_test <-read.csv("..

패스맵 데이터 [내부링크]

월드컵 축구 경기가 끝난후 패스맵을 보다 든 생각 저 패스맵 데이터는 어디서 받을 수 있는거지 저거 내가 직접 그려보고 싶은데 빅분기 시험 끝나면 원본데이터 찾아서 직접 그려봐야겠다 https://sharmaabhishekk.github.io/projects/passmap Creating Passmaps in Python Passmaps using Matplotib and Pandas sharmaabhishekk.github.io

[빅분기 실기] T1-26. menu컬럼에 "라떼" 키워드가 있는 데이터의 수는? [내부링크]

https://www.kaggle.com/code/yimstar9/t1-26-str-contains # your code library(dplyr) df<-read.csv("/kaggle/input/bigdatacertificationkr/payment.csv") ans<-nrow(df[grep("라떼",df$menu),]) cat(ans) grep("문자열", 데이터프레임) return값 : 인덱스 grepl("문자열", 데이터프레임) return값 : TRUE/FALSE

[빅분기 실기] T1-27. 바닐라라떼 5점, 카페라떼 3점, 아메리카노 2점, 나머지 0점이다 총 메뉴의 점수를 더한 값은? [내부링크]

library(dplyr) df<-read.csv("/kaggle/input/bigdatacertificationkr/payment.csv") df$menu<-gsub(" ","",df$menu) ans<-df%>%mutate(score=ifelse(menu%in%"바닐라라떼",5,ifelse(menu%in%"아메리카노",2,ifelse(menu%in%"카페라떼",3,0))))%>%summarise(sum=sum(score)) cat(ans$sum) 공백 없애기 gsub(" ","",df ) " " 공백을 ""공백제거, df에서

[빅분기 실기] T1-29. 12월인 데이터 수는? [내부링크]

https://www.kaggle.com/code/yimstar9/t1-29-datetime-format # your code df<-read.csv("/kaggle/input/bigdatacertificationkr/payment.csv") library(dplyr) library(lubridate) ans<-df%>%mutate(pre_date=ymd(date))%>%filter(month(pre_date)==12) cat(nrow(ans))

T1-28. 시간(hour)이 13시 이전(13시 포함하지 않음) 데이터 중 가장 많은 결제가 이루어진 날짜(date)는? (date 컬럼과 동일한 양식으로 출력) [내부링크]

https://www.kaggle.com/code/yimstar9/t1-28-value-counts-index df<-read.csv("/kaggle/input/bigdatacertificationkr/payment.csv") library(dplyr) ans<-df%>%filter(hour<13)%>%select(date)%>%table() cat(names(which.max(ans)))

[빅분기 실기] T1-30. 12월 25일 결제 금액(price)은 12월 총 결제금액의 몇 %인가? (정수로 출력) [내부링크]

https://www.kaggle.com/code/yimstar9/t1-30-datetime-percent/edit t1-30-datetime-percent Explore and run machine learning code with Kaggle Notebooks | Using data from Big Data Certification KR www.kaggle.com df<-read.csv("/kaggle/input/bigdatacertificationkr/payment.csv") library(dplyr) library(lubridate) ans<-df%>%filter(month(ymd(date))==12)%>%group_by(date)%>%summarise(dailysum=sum(price))%>%mutate(ratio=(dailysum/sum(dailysum))*100)%>%filter(date==20221225) cat(as.integer(ans$ratio))

[빅분기 실기 R] 빅데이터 분석기사 4회 작업2형 [내부링크]

https://www.kaggle.com/competitions/big-data-analytics-certification-kr-2022/overview Big Data Analytics Certification KR 2022 This competition is for beginners in machine learning. www.kaggle.com # This R environment comes with many helpful analytics packages installed # It is defined by the kaggle/rstats Docker image: https://github.com/kaggle/docker-rstats # For example, here's a helpful package to load library(tidyverse) # metapackage of all tidyverse packages library(dplyr) library(ModelMet

[빅분기 실기 R] 기출4회 작업형2 3모델(RF,XGB,nnet) [내부링크]

https://www.kaggle.com/code/yimstar9/r-4th-type2-score-0-32166-3models-rf-xgb-nnet?scriptVersionId=111701872 [R]4th_type2_score:0.32166 (3models:RF,XGB,nnet) Explore and run machine learning code with Kaggle Notebooks | Using data from Big Data Analytics Certification KR 2022 www.kaggle.com library(tidyverse) # metapackage of all tidyverse packages library(dplyr) library(xgboost) #library(ModelMetrics) library(caret) library(nnet) library(randomForest) df_train<-read.csv("../input/big-data-analy

[에러] Could not locate zlibwapi.dll. Please make sure it is in your library path! [내부링크]

Could not locate zlibwapi.dll. Please make sure it is in your library path! 에러

버프스위트-파이썬 Request post,get 매크로 [내부링크]

import requests import time import json from bs4 import BeautifulSoup import re import sys def Login(i,p): Login_param = { 'id' : i, 'pwd' : p, } Login_header = { 'Content-Type': 'application/x-www-form-urlencoded', } response = requests.post('http://주소.html', data=Login_param, headers=Login_header, verify=False) session = response.headers.get('Set-Cookie') print(response.ok) return session def 함수명get(session,**args): #get요청 변수_param={ } 변수_header={ 'Referer':'http://주소', 'Cookie': session } res

[빅분기 실기 R] T2-6. Bike-sharing-demand [내부링크]

https://www.kaggle.com/code/limmyoungjin/r-t2-6-bike-sharing-demand/notebook [R] T2-6. Bike-sharing-demand Explore and run machine learning code with Kaggle Notebooks | Using data from multiple data sources www.kaggle.com # %% [code] {"jupyter":{"outputs_hidden":false},"execution":{"iopub.status.busy":"2022-11-21T06:17:23.093280Z","iopub.execute_input":"2022-11-21T06:17:23.095423Z","iopub.status.idle":"2022-11-21T06:17:26.204835Z"}} # 시험환경 세팅 (코드 변경 x) #Bike-sharing-demand library(dplyr) library

[빅분기 실기 R] 이기적카페 1주차 예상문제2 유방암 발생여부 예측 (종속변수 diagnosis : B(양성) , M(악성) [내부링크]

# 데이터 출처 : https://archive.ics.uci.edu/ml/datasets/Breast%20Cancer%20Wisconsin%20(Diagnostic)에서 변형 # 데이터 설명 : 유방암 발생여부 예측 (종속변수 diagnosis : B(양성) , M(악성) ) # 문제타입 : 분류유형 # 평가지표 : f1-score # trainData url : https://raw.githubusercontent.com/Datamanim/datarepo/main/cancer/train.csv # testData url : https://raw.githubusercontent.com/Datamanim/datarepo/main/cancer/test.csv # subData url : https://raw.githubusercontent.com/Datamanim/datarepo/main/cancer/submission.csv library(dplyr) library(caret) li

[빅분기 실기 R] T2-1. 타이타닉(Titanic) 생존여부 예측모델 만들기 [내부링크]

생존여부 예측모델 만들기 학습용 데이터 (X_train, y_train)을 이용하여 생존 예측 모형을 만든 후, 이를 평가용 데이터(X_test)에 적용하여 얻은 예측값을 다음과 같은 형식의 CSV파일로 생성하시오(제출한 모델의 성능은 accuracy 평가지표에 따라 채점) (가) 제공 데이터 목록 y_train: 생존여부(학습용) X_trian, X_test : 승객 정보 (학습용 및 평가용) (나) 데이터 형식 및 내용 y_trian (712명 데이터) 시험환경 세팅은 예시문제와 동일한 형태의 X_train, y_train, X_test 데이터를 만들기 위함임 유의사항 성능이 우수한 예측모형을 구축하기 위해서는 적절한 데이터 전처리, 피처엔지니어링, 분류알고리즘, 하이퍼파라미터 튜닝, 모형 앙상블 등이 수반되어야 한다. 수험번호.csv파일이 만들어지도록 코드를 제출한다. 제출한 모델의 성능은 accuracy로 평가함 csv 출력형태 library(dplyr) library(ran

[빅분기 실기 R] T1-9. Standardization / #표준화 #중앙값 [내부링크]

# 주어진 데이터에서 'f5'컬럼을 표준화(Standardization (Z-score Normalization))하고 그 중앙값을 구하시오 # 데이터셋 : basic1.csv #install.packages("caret") library(caret) df<-read.csv('basic1.csv') st=preProcess(df) median(predict(st,df)$f5,na.rm=T) df1<-na.omit(df$f5) m<-mean(df1) s<-sd(df1) df.z<-(df1-m)/s median(df.z) 0.259313257274601 0.259313257274601 Engineer-Big-Data-Analysis_R/[R]_T1_9_z_score_(caret라이브러리).ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) 표준화는 scale함수를 써도 될듯?

[빅분기 실기 R] T1-10. Yeo-Johnson and Box–Cox / #여존슨 #박스-콕스 #결측치 #최빈값 [내부링크]

# 주어진 데이터에서 20세 이상의 데이터 추출한 후, 'f1'컬럼을 결측치를 최빈값으로 채운 후, # f1 컬럼의 여-존슨과 박스콕스 변환 값을 구하고, 두 값의 차이를 절대값으로 구한다음 모두 더해 소수점 둘째 자리까지 출력(반올림)하시오 # 데이터셋 : basic1.csv library(dplyr) library(caret) df=read.csv('../input/bigdatacertificationkr/basic1.csv') df1<-df%>%filter(age>=20)%>%mutate(pre_f1=ifelse(is.na(f1),as.numeric(names(which.max(table(f1)))),f1)) yeo<-preProcess(df1,c("YeoJohnson","scale","center")) bxcx<-preProcess(df1,c("BoxCox","scale","center")) tr_y<-(predict(yeo,df1))$pre_f1 tr_b<-(predict(

[빅분기 실기 R] T1_11. min-max scaling / #스케일링 #상하위값 상위5% 하위5%값 [내부링크]

# min-max스케일링 기준 상하위 5% 구하기 # 주어진 데이터에서 'f5'컬럼을 min-max 스케일 변환한 후, 상위 5%와 하위 5% 값의 합을 구하시오 # - 데이터셋 : basic1.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script library(dplyr) #install.packages("caret") library(caret) df<-read.csv('basic1.csv') #방법1 normalize <- function(x) { return((x-min(x))/(max(x)-min(x))) } df%>%mutate(norm_f5=normalize(f5))%>%summarise(v1=quantile(norm_f5,0.95),v2=quantile(norm_f5,0.05))%>%sum #방법2 mm=preProcess(df,'range') df %>% mutate(mm_f5=predi

[빅분기 실기 python] 정시 배송 예측 [내부링크]

# 데이터 설명 : e-commerce 배송의 정시 도착여부 (1: 정시배송 0 : 정시미배송) # x_train: https://raw.githubusercontent.com/Datamanim/datarepo/main/shipping/X_train.csv # y_train: https://raw.githubusercontent.com/Datamanim/datarepo/main/shipping/y_train.csv # x_test: https://raw.githubusercontent.com/Datamanim/datarepo/main/shipping/X_test.csv # x_label(평가용) : https://raw.githubusercontent.com/Datamanim/datarepo/main/shipping/y_test.csv # 데이터 출처 :https://www.kaggle.com/datasets/prachi13/customer-analytics (참고, 데이터 수정)

딥러닝 환경구축 for Windows(Cuda, CuDNN) [내부링크]

1. 본인 그래픽카드가 cuda toolkit지원 여부 확인 목록에 없거나 Compute Capability 가 3.0아래면 cuda toolkit 사용불가. 2.cuda 설치 CUDA Toolkit Archive | NVIDIA Developer 3.CuDNN 설치 nvidia 계정 필요 NVIDIA Developer Program Membership Required | NVIDIA Developer 다운받은 zip파일을 cuda가 설치된 폴더에 압축 풀어주면 된다. C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0(본인이 설치한 버전)\ 4. 환경변수 설정 시스템 환경 변수 편집 -> 고급-> 환경변수 사용자변수 Path ->편집에 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0(본인이 설치한 버전)\bin C:\Program Files\NVIDIA GPU Computing

readr ::read_csv와 read.csv 차이 [내부링크]

read_csv 함수는 데이터를 tibble로 R에 가져오는 반면, read.csv는 대신 일반 이전 R 데이터 프레임을 가져옵니다. Tibbles는 다음과 같은 이유로 일반 데이터 프레임보다 낫습니다. 더 빠르게 로드 입력 유형을 변경하지 마십시오 열을 목록으로 가질 수 있습니다. 비표준 변수 이름 허용(예: 변수는 숫자로 시작하고 공백을 포함할 수 있음) 행 이름을 만들지 마십시오 티블이 기존 데이터 프레임보다 나은 다른 미묘한 이유가 있지만 지금은 다음 사항만 알아야 합니다. read_csv는 티블을 생성합니다. read.csv는 일반 데이터 프레임을 만듭니다. 데이터가 R에 로드될 때까지 기다리는 것 외에 할 일이 더 많은 데이터 과학자라면 데이터 프레임 대신 tibble을 로드해야 합니다. 출처 : https://medium.com/r-tutorials/r-functions-daily-read-csv-3c418c25cba4 R Function Tutorials: read_c

[빅분기 실기 R] row,column,변수 명에 한글 포함&숫자로 시작 [내부링크]

Q. 2022년 데이터 중 2022년 중앙값보다 큰 값의 데이터 수 library(dplyr) library(stringr) df <- read.csv("../input/big-data-analytics-certification/t1-data2.csv",row.names=1) rownames(df)<-rownames(df)%>%str_remove(pattern = "년") rownames(df)<-paste0("year",rownames(df)) df%>%t%>%data.frame%>%filter(year2022>median(year2022))%>%select(year2022)%>%count R은 변수에 한글이 있을경우 제대로 작동안한다, 숫자로 시작할 경우에도 마찬가지 한글 지워주고 앞에 영어 포함시킴

[ADsP] 합격 [내부링크]

10월에 빅분기 시험공부도 하고 그뒤로 한달더 공부(총 두달)를 하고 가서 그런지 난이도가 쉽게 느껴졌다. 실기가 없는 시험이라 너무 좋다.

burpsuite-파이썬 [내부링크]

버프 스위트 설치 후 실행 화면이다. 버프스위트가 좋아져서 프록시 설정없이도 사용가능하다 1번 눌러서 브라우저 열고 패킷 분석 하고 싶은 곳 전에 2번 intercept is on을 눌러준다. intercept is on 상태에서 모든패킷이 버프스위트에 뜬다 내가 데이터를 줄테니 처리해세요 POST, 원하는걸 달라고 요청하는건 GET 응답은 RESPONSE이다. Foward은 패킷 단계별로 진행하는것 http history 는 지나간 패킷 히스토리 우클릭해서 Send to Repeater 하면 이창이 뜨는데 send버튼을 누르면 응답을 볼 수 있다. request 수정후 send보내도 응답을 볼 수 있다 잘못된 request를 보내면 400 bad request 가 뜬다. http 응답코드는 위키백과에서 자세히 볼수 있다. https://ko.wikipedia.org/wiki/HTTP_%EC%83%81%ED%83%9C_%EC%BD%94%EB%93%9C HTTP 상태 코드 - 위키백과

[빅분기 실기 R] 유방암 발생여부 예측 (종속변수 diagnosis : B(양성) , M(악성) ) [내부링크]

이기적 카페 [빅분기실기2유형]1주차 예상문제 2 https://cafe.naver.com/yjbooks/15825 1주차 예상문제 2 데이터 출처 : https://archive.ics.uci.edu/ml/datasets/Breast%20Cancer%20Wisconsin%20(Diagnostic)에서 변형 ... cafe.naver.com # 데이터 출처 : https://archive.ics.uci.edu/ml/datasets/Breast%20Cancer%20Wisconsin%20(Diagnostic)에서 변형 # 데이터 설명 : 유방암 발생여부 예측 (종속변수 diagnosis : B(양성) , M(악성) ) # 문제타입 : 분류유형 # 평가지표 : f1-score # 데이터 출처 : https://archive.ics.uci.edu/ml/datasets/Breast%20Cancer%20Wisconsin%20(Diagnostic)에서 변형 # 데이터 설명 : 유방암 발생여부 예

패키지 MASS, dplyr에서 select함수 에러(충돌) Error in select(., Kor) : unused argument (Kor) [내부링크]

Error in select(., Kor) : unused argument (Kor) 원인 : select함수가 MASS패키지와 dplyr패키지 둘다 있기 때문 해결방법 1. select함수 사용할때 마다 dplyr::select() 로 정확히 호출 2. select<-dplyr::select 로 select는 dplyr의select함수라고 선언 library(dplyr) Kor <- c(90, 85, 90) Eng <- c(70, 85, 75) df<-data.frame(Kor,Eng) df%>%select(Kor) dplyr의 select함수는 데이터프레임의 column을 선택하여 해당하는 column만 보여주는 함수입니다. dplyr 패키지만 불러왔을때는 에러없이 작동합니다. library(dplyr) Kor <- c(90, 85, 90) Eng <- c(70, 85, 75) df<-data.frame(Kor,Eng) library(MASS) df%>%select(Kor) 하지

[빅분기 실기 R] T2 2회 기출유형 R [내부링크]

https://www.kaggle.com/code/limmyoungjin/tutorial-t2-2-r/notebook [Tutorial] T2 2회 기출유형 R Explore and run machine learning code with Kaggle Notebooks | Using data from multiple data sources www.kaggle.com 전자상거래 배송 데이터 제품 배송 시간에 맞춰 배송되었는지 예측모델 만들기 학습용 데이터 (X_train, y_train)을 이용하여 배송 예측 모형을 만든 후, 이를 평가용 데이터(X_test)에 적용하여 얻은 예측값을 다음과 같은 형식의 CSV파일로 생성하시오(제출한 모델의 성능은 ROC-AUC 평가지표에 따라 채점) [시험용 데이터셋 만들기] 코드는 예시문제와 동일한 형태의 X_train, y_train, X_test 데이터를 만들기 위함임 (유의사항) 성능이 우수한 예측모형을 구축하기 위해서는 적절한 데이터 전처리,

[빅분기 실기 R] 4회 기출 작업형1 [내부링크]

https://www.kaggle.com/code/yimstar9/4th-type1/notebook 4th-type1 Explore and run machine learning code with Kaggle Notebooks | Using data from multiple data sources www.kaggle.com 작업형1 풀이 1-1. age 컬럼의 3사분위수와 1사분위수의 차를 절대값으로 구하고, 소수점 버려서, 정수로 출력 data_path: ../input/bigdatacertificationkr/basic1.csv 정답 : [50] df <- read.csv("../input/bigdatacertificationkr/basic1.csv") library(dplyr) ans<-df%>%summarise(dif=IQR(age))%>%floor print(ans) 1-2.(loves반응+wows반응)/(reactions반응) 비율이 0.4보다 크고 0.5보다 작으면서, t

[빅분기 실기 R] 이탈예측(분류) 4모델(의사결정나무,로지스틱회귀,랜덤포레스트,서포트벡터머신) [내부링크]

Engineer-Big-Data-Analysis_R/이탈예측(분류)_4모델.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) #https://www.datamanim.com/dataset/03_dataq/typetwo.html #분류 #서비스 이탈예측 데이터 #데이터 설명 : 고객의 신상정보 데이터를 통한 회사 서비스 이탈 예측 (종속변수 : Exited) x_train <-read.csv("https://raw.githubusercontent.com/Datamanim/datarepo/main/churnk/X_train.csv", stringsAsFactors = T) y_train <-read.csv("https://raw.githubusercontent.com/Datamanim/datarepo/main/churnk/y_train.csv", stringsAsFactors = T) x_test <-read.csv(

[빅분기 실기 R](수정) 이탈예측(분류) 4모델(의사결정나무,로지스틱회귀,랜덤포레스트,서포트벡터머신) [내부링크]

#https://www.datamanim.com/dataset/03_dataq/typetwo.html #분류 #서비스 이탈예측 데이터 #데이터 설명 : 고객의 신상정보 데이터를 통한 회사 서비스 이탈 예측 (종속변수 : Exited) # install.packages("caret") # install.packages("ModelMetrics") # install.packages("randomForest") # install.packages("rpart") # install.packages("car") # install.packages("lmtest") # install.packages("ROCR") # install.packages("dplyr") library(dplyr) library(caret) library(car) library(lmtest) library(ROCR) library(ModelMetrics) library(randomForest) library(rpart) l

[빅분기 실기 R] T1-24. Time-Series5 시차 데이터 생성 [내부링크]

### 주어진 데이터(basic2.csv)에서 새로운 컬럼(1일 이전 시차 컬럼)을 만들고, Events가 1이면서 Sales가 1000000이하인 조건에 맞는 새로운 컬럼 합을 구하시오 ### 데이터셋 : basic2.csv ### 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 df<-read.csv('basic2.csv') library(dplyr) library(data.table) df %>% mutate(la=shift(PV,1))%>% filter(Events==1 & Sales<=1000000) %>% summarise(value=sum(la)) Engineer-Big-Data-Analysis_R/[R]_T1_24_Time_Series5_시차_데이터_생성.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) 1일 이전 시차 컬럼->전날 데이터를 오늘로 이동 library(data.table)

[R] Error in type.convert.default:invalid multibyte string at '&lt;ec&gt;&lt;84&gt;&lt;9c&gt;?&lt;b8&gt;' [내부링크]

> df<-read.csv('basic1.csv') Error in type.convert.default(data[[i]], as.is = as.is[i], dec = dec, : invalid multibyte string at '<ec><84><9c>?<b8>' office 365 엑셀의 인코딩 문제이다. fileEncoding과 encoding 파라미터를 변경해주면 해결된다. df<-read.csv('basic1.csv',header = T, stringsAsFactors=T,fileEncoding="UTF-8",encoding='CP949') df<-read.csv('basic1.csv',header = T, stringsAsFactors=T,fileEncoding = 'euc-kr', encoding = 'utf-8') fileEncoding="UTF-8" encoding='CP949' 또는 Error in make.names(col.names, unique = TRUE):

R Error in sum(List) : invalid ‘type’ (list) of argument, sum()에러 [내부링크]

리스트 만들어주고 List <- list(1:10, 15, 100) List [[1]] [1] 1 2 3 4 5 6 7 8 9 10 [[2]] [1] 15 [[3]] [1] 100 리스트를 합계 내보려는데 에러가 뜬다. sum(List) Error in sum(List) : invalid 'type' (list) of argument sum(unlist(listvec)) 170 we must first use the unlist function to transform our list into a vector object. R에서는 List 형식은 sum이 안된다. dplyr %>%에서도 데이터프레임 컬럼 내용인데 summarise(sum(컬럼명))을 해도 에러가 났다. unlist로 리스트를 벡터로 변환해주니 sum이 제대로 작동한다.

R 데이터프레임에서 데이터타입 조건으로 원하는 컬럼만 추출 [내부링크]

sapply함수 사용해서 각 컬럼별 is.numeric조건을 적용한다. sapply(df,is.numeric) ID TRUE age TRUE job FALSE marital FALSE education FALSE default FALSE balance TRUE housing FALSE loan FALSE contact FALSE day TRUE month FALSE campaign TRUE pdays TRUE previous TRUE poutcome FALSE y FALSE sapply 리턴값을 df[ ]안에 넣어주면 원하는 조건의 컬럼만 추출된다. df[(sapply(df,is.numeric))]

[빅분기 실기 R] DataManim 연습문제 작업유형1 [내부링크]

1회차 — DataManim 1회차 — DataManim 1회차 캐글 링크 데이터셋 링크 문제풀이 유튜브 링크 작업 1유형 Attention 데이터 출처 : https://archive.ics.uci.edu/ml/datasets/Bank+Marketing (후처리 작업) 데이터 설명 : 은행의 전화 마케팅에 대해 고객의 반응 여부 dataurl : https://raw.githubusercontent.com/Datamanim/datarepo/main/bank/train.csv import pandas as pd df = pd . read_csv ( 'https://raw.githubuse... www.datamanim.com Question1 마케팅 응답 고객들의 나이를 10살 단위로 변환 했을 때, 가장 많은 인원을 가진 나이대는? (0~9 : 0 , 10~19 : 10) library(dplyr) df<-read.csv('https://raw.githubusercontent.co

[빅분기 실기 R] 작업형 제 1유형 예제 dataManim [내부링크]

작업형 제 1유형 예시문제 (코드기여자 : 익명요청 ㅠ) — DataManim data: "https://raw.githubusercontent.com/Datamanim/dataq/main/mtcars.csv" #mtcars 데이터셋(mtcars.csv)의 qsec 컬럼을 최소 최대 척도(min-max scale)로 변환한 후 0.5보다 큰 값을 가지는 레코드 수를 구하시오. #mtcars 데이터셋(mtcars.csv)의 qsec 컬럼을 최소 최대 척도(min-max scale)로 변환한 후 0.5보다 큰 값을 가지는 레코드 수를 구하시오. # 데이터 파일 읽기 예제 df <- read.csv("data/mtcars.csv", header=TRUE) library(dplyr) library(caret) # 사용자 코딩 minmax<-preProcess(df,"range") df1<-df%>%mutate(scale=predict(minmax, df)$qsec)%>%filter(scal

[빅분기 실기 R] 작업형 제 1유형 예제(주성분분석) [내부링크]

작업형 제 1유형 예시문제 (코드기여자 : 익명요청 ㅠ) — DataManim #mtcars 데이터셋에서 mpg변수를 제외하고 데이터 정규화 (standardscaler) 과정을 진행한 이후 PCA를 통해 변수 축소를 하려한다. 누적설명 분산량이 92%를 넘기기 위해서는 몇개의 주성분을 선택해야하는지 설명하라 df<- read.csv("https://raw.githubusercontent.com/Datamanim/dataq/main/mtcars.csv",row.names=1) #head(df) df_scale <- scale(df) pca <- prcomp(df_scale) summary(pca) #PC4 #추가된 brand 컬럼을 제외한 모든 컬럼을 통해 pca를 실시한다. 2개의 주성분과 brand컬럼으로 구성된 새로운 데이터 프레임을 출력하고, brand에 따른 2개 주성분을 시각화하여라 (brand를 구분 할수 있도록 색이다른 scatterplot, legend를 표시한다)

목감기? 코로나? [내부링크]

어제 점심으로 한식뷔페를 다녀오고나서 갑자기 코 안쪽 끝과 목 사이에 먼지가 잔뜩 걸린것 처럼 이물감이 느껴졌다. 뜨거운 물도 계속 마셨는데 시간이 지날수록 점점 심해졌다. 새벽에 일어나서 침을 삼키는데 목이 아팠다. 오늘 점심후 약 먹고 좀 나아진듯 하다. 집에 가면서 코로나 키트 검사해봐야겠다.

[빅분기 실기 R] T1-19. 시계열 데이터3 [내부링크]

### 주어진 데이터에서 2022년 월별 Sales 합계 중 가장 큰 금액과 ### 2023년 월별 Sales 합계 중 가장 큰 금액의 차이를 절대값으로 구하시오. ### 단 Events컬럼이 '1'인경우 80%의 Sales값만 반영함 (소수점 반올림 후 정수 출력) # - 데이터셋 : basic2.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 library(dplyr) library(lubridate) df<-read.csv('basic2.csv') df1<-df%>%mutate(year=year(Date), month=month(Date),flag=ifelse(Events==1,round((Sales*0.8),1),Sales))%>%group_by(year,month)%>%summarise(val=sum(flag))%>%data.frame y2<-df1%>%filter(year %in% 2022)%>%summarise(max(val)) y3<-df1%

[빅분기 실기 R] T1-18. 시계열 데이터2 [내부링크]

## 주어진 데이터에서 2022년 5월 주말과 평일의 sales컬럼 평균값 차이를 구하시오 (소수점 둘째자리까지 출력, 반올림) # - 데이터셋 : basic2.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 df<-read.csv('basic2.csv') library(dplyr) df1=df%>%mutate(year=year(Date), month=month(Date),week=wday(Date,label=T))%>%filter(year==2022&month==5)%>%data.frame weekend=df1%>%filter(week %in% c('Sun','Sat'))%>%summarise(mean(Sales)) weekday=df1%>%filter(!(week %in% c('Sun','Sat')))%>%summarise(mean(Sales)) abs(weekday-weekend)

[빅분기 실기 R] T1-20. 데이터 병합 [내부링크]

첨부파일 basic3.csv 파일 다운로드 첨부파일 basic1.csv 파일 다운로드 # 고객과 잘 맞는 타입 추천 :) # basic1 데이터 중 'f4'를 기준으로 basic3 데이터 'f4'값을 기준으로 병합하고, # 병합한 데이터에서 r2결측치를 제거한다음, 앞에서 부터 20개 데이터를 선택하고 'f2'컬럼 합을 구하시오 # - basic1.csv: 고객 데이터 # - basic3.csv: 잘 어울리는 관계 데이터 (추천1:r1, 추천2:r2) df<-read.csv('basic1.csv') df1<-read.csv('basic3.csv') library(dplyr) df%>%inner_join(df1,by='f4')%>%filter(r2!='')%>%head(20)%>%summarise(sum(f2)) Engineer-Big-Data-Analysis_R/[R]_T1_20_데이터_병합.ipynb at main · yimstar9/Engineer-Big-Data-Analysis

[R] T1-21. 구간 분할 [내부링크]

## 나이 구간 나누기 ### basic1 데이터 중 'age'컬럼 이상치를 제거하고, 동일한 개수로 나이 순으로 3그룹으로 나눈 뒤 각 그룹의 중앙값을 더하시오 ### (이상치는 음수(0포함), 소수점 값) # - data: basic1.csv df<-read.csv('basic1.csv') library(dplyr) library(ggplot2) df%>%filter(age>0&(age*10)%%10==0)%>%mutate(bin=cut_number(age,3))%>%group_by(bin)%>%summarise(v=median(age))%>%summarise(sum(v)) Engineer-Big-Data-Analysis_R/[R]_T1_21_구간_분할.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) library(ggplot2) cut_number(age,3) Usage cut_number(x, n = NU

[빅분기 실기 R] T1-22. Time-Series4 (Weekly data) [내부링크]

### 주어진 데이터(basic2.csv)에서 주 단위 Sales의 합계를 구하고, 가장 큰 값을 가진 주와 작은 값을 가진 주의 차이를 구하시오(절대값) ### 데이터셋 : basic2.csv library(dplyr) library(lubridate) df<-read.csv('basic2.csv') df%>%mutate(w=week(Date))%>%group_by(w)%>%summarise(v=sum(Sales))%>%select(v)%>%summarise(ans=max(v)-min(v)) #install.packages("readr") library(readr) df%>%mutate(week=cut(as.Date(Date),breaks='week')) %>% group_by(week) %>% summarise(value=sum(Sales))%>% summarise(ans=max(value)-min(value)) > df%>%mutate(w=week(Date))%>%group_b

[빅분기 실기 R] T1-23. 중복 데이터 제거 Drop Duplicates [내부링크]

### f1의 결측치를 채운 후 age 컬럼의 중복 제거 전과 후의 중앙값의 차이를 구하시오 ### 결측치는 f1의 데이터 중 10번째 큰 값으로 채움 ### 중복 데이터 발생시 뒤에 나오는 데이터를 삭제함 ### 최종 결과값은 절대값으로 출력 # 데이터셋 : basic1.csv df<-read.csv('basic1.csv') library(dplyr) df%>%mutate(pre_f1=ifelse(is.na(f1),sort(f1,decreasing=T)[10],f1),remove_age=ifelse(duplicated(age),NA,pre_f1))%>%summarise(f1m=median(pre_f1)-median(remove_age,na.rm=T)) Engineer-Big-Data-Analysis_R/[R]_T1_23_중복_데이터_제거_Drop_Duplicates.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com

[빅분기 실기 R] T1-10. 여-존슨과 박스-칵스 변환 [내부링크]

# 주어진 데이터에서 20세 이상의 데이터 추출한 후, 'f1'컬럼을 결측치를 최빈값으로 채운 후, # f1 컬럼의 여-존슨과 박스콕스 변환 값을 구하고, 두 값의 차이를 절대값으로 구한다음 모두 더해 소수점 둘째 자리까지 출력(반올림)하시오 # 데이터셋 : basic1.csv library(dplyr) #install.packages("caret") library(caret) df<-read.csv('basic1.csv') Yeo<-preProcess(df,'YeoJohnson') boxc<-preProcess(df,'BoxCox') df1<-df%>%filter(age>=20)%>%mutate(pre_f1=ifelse(is.na(f1),as.numeric(names(which.max(table(f1)))),f1)) yeo_f1=(predict(Yeo,df1))$f1 boxc_f1=(predict(boxc,df1))$f1 round(sum(abs(yeo_f1-boxc_f1),na.

[빅분기 실기 R] T1-12. 상위,하위 10개 차이 [내부링크]

첨부파일 covid-vaccination-vs-death_ratio.csv 파일 다운로드 # 주어진 데이터에서 상위 10개 국가의 접종률 평균과 하위 10개 국가의 접종률 평균을 구하고, 그 차이를 구해보세요 # (단, 100%가 넘는 접종률 제거, 소수 첫째자리까지 출력) # - 데이터셋 : ../input/covid-vaccination-vs-death/covid_vaccination_vs_death_ratio.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script library(dplyr) df<-read.csv('covid-vaccination-vs-death_ratio.csv') df%>%group_by(country)%>%summarise(v=max(ratio))%>%arrange(-v)%>%filter(v<=100)%>%summarise(ans=mean(head(v,10))-mean(tail

[빅분기 실기 R] T1-13. 상관관계 구하기 [내부링크]

# 상관관계 구하기 # 주어진 데이터에서 상관관계를 구하고, quality와의 상관관계가 가장 큰 값과, 가장 작은 값을 구한 다음 더하시오! # 단, quality와 quality 상관관계 제외, 소수점 둘째 자리까지 출력 # - 데이터셋 : ../input/red-wine-quality-cortez-et-al-2009/winequality-red.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - 스크립트 방식 권장: File -> Editor Type -> Script library(dplyr) df<-read.csv('winequality-red.csv') #방법1 round(max(slice(data.frame(cor(df,df$quality)),1:11))+min(slice(data.frame(cor(df,df$quality)),1:11)),2) #방법2 df %>% cor%>% data.frame%>%select(quality)%>%arra

R Error in parse_repo_spec(repo) : Invalid git repo specification: 'ggbiplot' [내부링크]

install.packages("devtools") library(devtools) install_github("ggbiplot","vqv") > install_github("ggbiplot", "vqv") Error in parse_repo_spec(repo) : Invalid git repo specification: 'ggbiplot' devtools 패키지 설치후 github로 ggbiplot 패키지 설치하려니 에러가 뜬다. install_github("vqv/ggbiplot") 이렇게 수정하고 실행하니 설치가 잘됨 > install_github("vqv/ggbiplot") Downloading GitHub repo vqv/ggbiplot@HEAD v checking for file 'C:\Users\tj-bu\AppData\Local\Temp\RtmpUxlzrt\remotes41147625306\vqv-ggbiplot-7325e88/DESCRIPTION' ... - prep

[빅분기 실기 R] T1-14. 2개 조건에 따른 상위 값 [내부링크]

# city와 f4를 기준으로 f5의 평균값을 구한 다음, f5를 기준으로 상위 7개 값을 모두 더해 출력하시오 (소수점 둘째자리까지 출력) # - 데이터셋 : basic1.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script df<-read.csv('basic1.csv') library(dplyr) df%>%group_by(city,f4)%>%summarise(val=mean(f5,na.rm=T))%>%arrange(-val)%>%data.frame%>%head(7)%>%summarise(sum(val))%>%round(2) Engineer-Big-Data-Analysis_R/[R]_T1_14_2개_조건에_따른_상위_값.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) summarise 하고 난 뒤에 데이터프레임 형식이 풀려버린다.

[빅분기 실기 R] T1-15. 슬라이싱 & 조건 [내부링크]

# 주어진 데이터 셋에서 age컬럼 상위 20개의 데이터를 구한 다음 # f1의 결측치를 중앙값으로 채운다. # 그리고 f4가 ISFJ와 f5가 20 이상인 # f1의 평균값을 출력하시오! # - 데이터셋 : basic1.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script df<-read.csv('basic1.csv') library(dplyr) median(df$f1) df%>%arrange(-age)%>%slice(1:20)%>%mutate(pre_f1=ifelse(is.na(f1),median(f1,na.rm=T),f1))%>%filter(f4=='ISFJ'&f5>=20)%>%summarise(mean(pre_f1)) Engineer-Big-Data-Analysis_R/[R]_T1_15_슬라이싱_&_조건_.ipynb at main · yimstar9/Engineer-Big-Data-Analysi

[빅분기 실기 R] T1-16. 분산 [내부링크]

# 주어진 데이터 셋에서 f2가 0값인 데이터를 age를 기준으로 오름차순 정렬하고 # 앞에서 부터 20개의 데이터를 추출한 후 # f1 결측치(최소값)를 채우기 전과 후의 분산 차이를 계산하시오 (소수점 둘째 자리까지) # - 데이터셋 : basic1.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script library(dplyr) df<-read.csv('basic1.csv') df%>%filter(f2==0)%>%arrange(age)%>%slice(1:20)%>%mutate(pre_f1=ifelse(is.na(f1),min(f1,na.rm=T),f1))%>%summarise(val1=var(pre_f1),val2=var(f1,na.rm=T))%>%data.frame%>%apply(1,diff)%>%round(2) Engineer-Big-Data-Analysis_R/[R]_T1_16_분산.ipynb

[빅분기 실기 R] T1-17. 시계열 데이터1 [내부링크]

첨부파일 basic2.csv 파일 다운로드 # ### 2022년 5월 Sales의 중앙값을 구하시오 # - 데이터셋 : basic2.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 library(dplyr) library(lubridate) df<-read.csv('basic2.csv') head(df) df%>%mutate(year=year(Date),month=month(Date))%>%filter(month==5)%>%summarise(med=median(Sales)) Engineer-Big-Data-Analysis_R/[R]_T1_17_시계열_데이터1.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) library(lubridate) 날짜 lubridate year() year(2022-01-01) return값:2022 날짜 lubridate month() month(2022-0

[빅분기 실기 R] T1-11. min-max 기준 상하 5% [내부링크]

첨부파일 basic1.csv 파일 다운로드 # min-max스케일링 기준 상하위 5% 구하기 # 주어진 데이터에서 'f5'컬럼을 min-max 스케일 변환한 후, 상위 5%와 하위 5% 값의 합을 구하시오 # - 데이터셋 : basic1.csv # - 오른쪽 상단 copy&edit 클릭 -> 예상문제 풀이 시작 # - File -> Editor Type -> Script library(dplyr) #install.packages("caret") library(caret) df<-read.csv('basic1.csv') #방법1 normalize <- function(x) { return((x-min(x))/(max(x)-min(x))) } df%>%mutate(norm_f5=normalize(f5))%>%summarise(v1=quantile(norm_f5,0.95),v2=quantile(norm_f5,0.05))%>%sum #방법2 mm=preProcess(df,'range') d

[빅분기 실기 R] T1-7. 값 변경 및 2개 이상의 조건 [내부링크]

# 'f4'컬럼의 값이 'ESFJ'인 데이터를 'ISFJ'로 대체하고, 'city'가 '경기'이면서 'f4'가 'ISFJ'인 데이터 중 'age'컬럼의 최대값을 출력하시오! # 데이터셋 : basic1.csv library(dplyr) df=read.csv('basic1.csv') df%>%mutate(pre_F4=ifelse(f4=='ESFJ','ISFJ',f4))%>%filter(city=='경기'& f4=='ISFJ')%>%select(age)%>%max T1-7. 값 변경 및 2개 이상의 조건.ipynb - Colaboratory (google.com)

[빅분기 실기 R] T1-8. 누적합 그리고 보간 [내부링크]

# 주어진 데이터 셋에서 'f2' 컬럼이 1인 조건에 해당하는 데이터의 'f1'컬럼 누적합을 계산한다. # 이때 발생하는 누적합 결측치는 바로 뒤의 값을 채우고, 누적합의 평균값을 출력한다. # (단, 결측치 바로 뒤의 값이 없으면 다음에 나오는 값을 채워넣는다) # 데이터셋 : basic1.csv library(dplyr) library(zoo) df<-read.csv('basic1.csv') df%>%filter(f2==1)%>%mutate(pre_f1=cumsum(ifelse(is.na(f1),0,f1))+f1*0)%>% mutate(f1_cs2=na.locf(pre_f1,fromLast=T))%>%summarise(mean(f1_cs2)) Engineer-Big-Data-Analysis_R/T1_8_누적합_그리고_보간.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) library(zoo) na.locf(o

[빅분기 실기_R] T1-5. 조건에 맞는 데이터 표준편차 [내부링크]

첨부파일 basic1.csv 파일 다운로드 Q1. 주어진 데이터 중 basic1.csv에서 'f4'컬럼 값이 'ENFJ'와 'INFP'인 'f1'의 표준편차 차이를 절대값으로 구하시오 # 데이터셋 : basic1.csv library(dplyr) df<-read.csv('basic1.csv') df %>% filter(f4=='ENFJ' | f4=='INFP') %>% group_by(f4) %>% summarise(value=sd(f1,na.rm=T)) %>% select(value) %>% apply(2,diff) %>% abs Engineer-Big-Data-Analysis_R/T1_5_조건에_맞는_데이터_표준편차.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com) %>% group_by(f4) #group_by()에서 지정한 열의 수준(level)별로 그룹화 %>% select(value) #select 열

R 구간 범주화, 변수 리코딩 [내부링크]

mutate(): 변수 리코딩(re-coding) 범주형 변수의 수준 간소화 case_when():cut, ifelse와 비슷한 기능을 한다. %>% mutate( 새로운컬럼명 = case_when( 변수 %in% c("원하는 값1", "원하는 값2", "원하는 값3") ~ "참 리턴값", TRUE ~ "거짓 리턴값" ) ) 연속형 변수-> 범주형 변수 df%>%mutate(education2=case_when( education == 1 ~"대졸", education == 2 ~"고졸", education == 3 ~"중졸" )) df%>%mutate(새로운컬럼명=case_when( 변수 == 비교값 ~"리턴값", 변수 == 비교값 ~"리턴값", 변수 == 비교값 ~"리턴값", TRUE~"리턴값" )) 등간격 범주화 cut_width(변수, width = 폭, boundary = 경계값, colosed = "left") 경계값과 폐구간을 지정하는 boundary와 closed 옵션

[빅분기 실기 R] T1-6. 결측치 제거 및 그룹 합계 [내부링크]

#주어진 데이터 중 basic1.csv에서 'f1'컬럼 결측 데이터를 제거하고, #'city'와 'f2'을 기준으로 묶어 합계를 구하고, #'city가 경기이면서 f2가 0'인 조건에 만족하는 f1 값을 구하시오 #데이터셋 : basic1.csv library(dplyr) df<-read.csv('basic1.csv') df%>%filter(!is.na(f1))%>%group_by(city,f2)%>%summarise(sum_f1=sum(f1))%>%filter(city=='경기'&f2==0)%>%data.frame%>%select(sum_f1) Engineer-Big-Data-Analysis_R/T1_6_결측치_제거_및_그룹_합계.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R (github.com)

[빅분기 실기_R] T1-4. 왜도와 첨도 구하기 [내부링크]

첨부파일 train.csv 파일 다운로드 Q1. 주어진 데이터 중 train.csv에서 'SalePrice'컬럼의 왜도와 첨도를 구한 값과, # 'SalePrice'컬럼을 스케일링(log1p)로 변환한 이후 왜도와 첨도를 구해 모두 더한 다음 소수점 2째자리까지 출력하시오 # 데이터셋 : House Prices - Advanced Regression Technique (https://www.kaggle.com/competitions/house-prices-advanced-regression-techniques/data?select=train.csv ) df<-read.csv("train.csv") library(dplyr) library(e1071) df%>%mutate(log_saleprice=log(SalePrice))%>%summarise(bef_kur=kurtosis(SalePrice),bef_skew=skewness(SalePrice),after_kur=kurtosis(lo

arduino 0023 버전 다운로드 [내부링크]

1.0 버전 이상에선 usb host가 반응이 없어 해결하려 하루종일 헤맷음 ㅠㅠ 0023버전 설치버전 http://arduino.googlecode.com/files/arduino-0023.zip

1.0.0버전용으로 수정한 usb shield 라이브러리 [내부링크]

http://cafe.naver.com/arduinostory.cafe?iframe_url=/ArticleRead.nhn%3Fclubid=17467872%26menuid=%26boardtype=%26page=%26userDisplay=%26articleid=9222

[공유] 패턴인식, 08. 가우시안 혼합 모델 [내부링크]

출처 어드벤처|아르민 Guassian Mixture Model 스크랩된 글은 재스크랩이 불가능합니다.

매트랩 명령어들 [내부링크]

*** 직접연산 아닌 여러가지 기능들 %m 파일 처음에 넣으며깨끗하게 하는 거 clear all; %clear 변수명 하면 그 변수 지워짐 close all; clc; *clear - 선언한 변수들 지우기 *close - 닫기 *clc - 명령창 깨끗하게 whos %지금 있는 변수 들 보기 pause(3) %3초동안 딜레이 주기 ***행렬(matrix) 선언 a=[0 2; 4 3]; ->2*2 행렬 a=[0 2; ... 4 3] ->...을 사용하여 이렇게도 가능 b=[a [0;1]; [0 0] 1]; ->이런식으로 가능. *결과 -> 0 2 0 4 3 1 0 0 1 x=0:-2:-5 %0, -2, -4 하는 식으로 만들어짐. 범위와 증분 x=1:0 %빈 벡터 만들어짐 linspace(0,pi,10) %0부터 pi까지 균등한 간격의 점을 10개 만들어 낸다 ***행렬 원소 접근하기 a(1,1) %행과 열로 접근 a(1,:) %1행 싹 가져오기 ***행렬 관련 연산 역행렬 - inv(

[공유] Visual Studio 2010에서 OpenCV2.2 셋팅하기 1. OpenCV를 설치해 보자. [내부링크]

출처 Infra In HanYang|ㅇ승민ㅇ VS2010 opencv2.2 세팅하기(1) 스크랩된 글은 재스크랩이 불가능합니다.

[공유] Visual Studio 2010에서 OpenCV2.2 셋팅하기 2. OpenCV를 비주얼스튜디오2010에 셋팅해보자 [내부링크]

출처 Infra In HanYang|ㅇ승민ㅇ VS2010 opencv2.2 세팅하기(2) 스크랩된 글은 재스크랩이 불가능합니다.

OpenNI, NITE, KinectSensor 설치 [내부링크]

http://nkinect.codeplex.com/releases/view/65984 설치파일 openni.org 사이트가 안들어가져 찾아보니

[공유] [OpenCV] 자주쓰는 기능들 [내부링크]

출처 koonpoint|쿤 opencv 자주쓰는기능들 스크랩된 글은 재스크랩이 불가능합니다.

openni 설치파일 [내부링크]

설치후에 simple viewer 실행하면(kinect와 연동되어) 아래와같은 화면을 볼수있다.

Kinectsdk, opencv 연동 [내부링크]

openni를 이용하지않고 kinectsdk로 depth영상을 불러와 opencv로 넘겨준것 ver : kinectsdk 1.6, opencv 2.1, vs2010 or 2008 외부참조:opencv (inc,lib) kinectsdk(inc,lib)/opencv *.lib, kinect10.lib #include <highgui.h> #include <cxcore.h> #include <Windows.h> #include <NuiApi.h> #include <stdio.h> #define DEPTH_WIDTH 640 #define DEPTH_HEIGHT 480 RGBQUAD rgb[640*480]; void InitializeKinect() { bool NotConnectKinect; do { HRESULT hr = NuiInitialize(NUI_INITIALIZE_FLAG_USES_DEPTH_AND_PLAYER_INDEX); if(FAILED(hr)) { system("cls"

c++ 디버그 모드 유용한것들 [내부링크]

F9 중단점 설정후 F5디버그모드 실행하면 중단점에서 멈춘다 F5누를때마다 중단점 실행 (for문에서 변수값 확인할때 유용함, ctrl+F10도 같은기능) F10 한줄씩 실행

예제 소스파일 [내부링크]

숙제 #1 이미지 파일을 열어서 첫 번째 윈도우 창에 보인다. 첫 번째 윈도우에서 마우스 클릭을 두 번하면 두 개의 마우스 커서 좌표를 각각 사각형의 왼쪽 위 좌표, 오른쪽 아래 좌표로 하여 사각형 영역을 설정하고, 이 영역의 이미지만 r, g, b 평균을 하여 두 번째 윈도우창에 보인다. 이 때, 두 번째 창에는 선택된 영역의 크기만큼만 보여야 한다. 숙제 #2 얼굴이 포함된 컬러 이미지 파일을 열어서 첫 번째 윈도우 창에 보인다. 컬러 이미지에서 얼굴 부분은 컬러로, 나머지 부분은 그레이로 하여 두 번째 창에 보인다. 숙제 #3 얼굴이 포함된 2장의 컬러 이미지 파일을 열어서 얼굴 부분만 첫 번째, 두 번째 윈도우 창에 각각 보인다. 얼굴 영역에 모폴로지를 적용하여 노이즈를 제거한 후 세번째, 네 번째 윈도우 창에 각각 보인다. 세 번째 얼굴에서 네 번째 얼굴로 서서히 변하는 이미지를 다섯 번째 윈도우 창에 보인다. C:\ 폴더 안에 이미지 넣고 파일명 수정후 실행 Ver. VS

VFW카메라 영상 획득 [내부링크]

VFW영상 획득해서 gray처리후 canny edge돌리기 ver. VS2008, OpenCV2.1

OpenCV2.1에서 directx기반 카메라영상 받는법 [내부링크]

DirectShow = cvcam 기초 영상 데이터를 카메라나 그래픽 카드 같은 디바이스에서 직접 받아옴. 하드웨어 기능 제어 장점 - 성능이 좋고, 정밀한 제어 가능함. 단점 - DirectX를 직접 설치해야함. CVCAM 라이브러리를 이용한 프로그래밍 패턴 카메라연결 - 속성설정 - 초기화 - 시작 - 콜백함수호출 - 중단 - 카메라연결해제 cvcamselectcamera() - cvcamsetproperty() - cvcamInit() - cvcamStart() - 콜백함수호출 - cvcamStop() - cvcamExit 2.1버전에선 cvCam.h가 없기때문에 cvCam관련 라이브러리를 사용할 수 없다. 그래서 highgui.h 내용을 보면 #define CV_CAP_ANY 0 // autodetect #define CV_CAP_MIL 100 // MIL proprietary drivers #define CV_CAP_VFW 200 // platform native #defi

7/3 세미나 내용 [내부링크]

1. 프로그래밍은 간결하게( 중복되는 것 최대한 줄이고 속도 늘리기) 2. 증감문 i++보다 ++i가 미묘하게 속도 더빠르다. 3. 코딩할때 들여쓰기 잘하기 보기 힘들어짐 4. 숙제#2에서 배열쓰지말고 전부 포인터로 바꾸고 중복되는연산(for문) 없애라 5. 숙제#3 방법1) 튀는이유는 두개 더하면서 255가 넘어가버림 6. 숙제#4 cvFlip을 쓰는이유는 카메라마다 획득되는 영상이 다름 (싸구려 카메라는 영상이 거꾸로 획득되어짐) 7. 숙제#4 Release 는 Create한 횟수만큼 해줘야한다(안그러면 메모리 오버로 프로그램 죽음)

OpenCV 자주쓰는 기능 [내부링크]

*** IplImage 관련, 생성과 해제 등 //생성 IplImage *srcimg_R = NULL; srcimg_R = cvCreateImage(cvSize(m_width,m_height), 8, 3); //cvSize(640,480) 같은 것도 됨 srcimg_R = cvCreateImage(cvGetSize(src_color), 8, 3); //요것도 됨. 다른 IplImage 사이즈 받아와서 //요런것도 됨 CvSize img_size; img_size.height = ImageHeight; img_size.width = ImageWidth; IplImage* BGR_image = cvCreateImage(img_size, IPL_DEPTH_8U, 3); //이미지 복사하기 src = cvCloneImage(src_img); //src가 비어있어야 함. 아니면 메모리 계속 쌓인다 cvCopy(src_img, src_img2); //0으로 초기화 cvZero(src_img);

histogram(backproject)를 이용한 추적 [내부링크]

숙제#5 손이나 얼굴이 있는 이미지를 첫번째 윈도우 창에 보인다.히스토그램으로 피부색 영역을 추출한 결과를 두번째 윈도우 창에 보인다. 블롭을 분석하여 제일 큰 블롭의 크기, 중심 좌표, 폭, 높이, 장축/단축 길이, 각도를 콘솔 창에 출력한다. 우선 이걸 해결하기 위해 히스토그램부터 공부를 했는데 아무리 책보고 구글링을해도 히스토그램을 이용해서 피부 검출하는방법을 찾지못해서 3일이란 시간을 그냥 허비했다. 결국 선배한테 물어봤는데 히스토그램 backproject를 이용하면 된다고 하더라...10초만에 접근법을 알아냈다. 이틀동안 hue이미지 변환하고 별짓 다했었는데 하........진작물어볼껄 접근법은 되게 간단하다. 1. 우선 영상에서 추적하고 싶은 부분을 정한다.(검은색 사각형) 2. 사각형 부분에 대한 히스토그램을 얻는다.(얻은 히스토그램을 정규화 해야 확률이 된다) cvCalcBackProject( &grayImg, backprojectImg, cvHist ); //gray

요번주 진행사항 [내부링크]

저번주 진행햇던 방식은 교수님이 원하는 방식이 아니여서 다시 처음부터 진행하게되엇다. 두개의 skin32.hst, nonskin32.hst 파일이 주어지고 이파일을 읽어서 히스토그램을 작성하고 각 픽셀단위로 이게 피부색인지 피부색이 아닌지 확률을 구해서 피부색일확률이 클경우 픽셀처리 skin32.hst nonskin32.hst 파일은 32x32x32 3차원으로 되어있고 hist[r][g][b] => 확률 for(int b_cnt=0;b_cnt<32; b_cnt++) { for(int g_cnt=0; g_cnt<32; g_cnt++) { for(int r_cnt=0; r_cnt<32; r_cnt++) { skin_bgr[b_cnt][g_cnt][r_cnt] = data_foreground[((int)(b_cnt)*32*32)+((int)(g_cnt)*32)+(int)(r_cnt)]; nskin_bgr[b_cnt][g_cnt][r_cnt] = data_background[((int)(b

histogram 피부색 적용, template 매칭 [내부링크]

skin32.hst 피부색 히스토그램 바이너리 파일 nonskin32.hst 피부색이 아닌 히스토그램 바이너리파일 이 히스토그램 파일 이용하여 피부색 검출하는 방법 진도가 점점 느려진다 ㅠ

영상처리는 for문의 반복이다 [내부링크]

그렇기 때문에 교수님께서는 복잡한 영상처리는 너무나도 느리기때문에 프로그램 코딩으로 속도를 줄여야 한다고 항상 강조하신다. 사소한것 하나하나가 엄청난 차이가 난다고..

meanshift 움직임 추적 [내부링크]

NIKE와 지갑 추적 영상 cvMeanShift함수는 물체의 크기 변화를 추적할 수는 없다. 1. 탐색 윈도우 크기 선택 2. 탐색 윈도우 초기 위치 선택 3. 탐색 윈도우에서 평균 위치 계산 4. 탐색 윈도우의 중심을 계산된 평균 위치로 이동 5. 탐색 윈도우의 중심이 수렴할 때까지 스텝 3, 4 반복 쉽게말하면 1. 임의로 선택된 하늘색원(ROI)를 잡고 2. 선택된 범위 안에 들어이는 특징점들의 밀도가 가장 큰 곳을 찾는다. 3. 밀도가 가장 큰 곳을 중심으로 재설정한다. 4. 재설정 된 중심을 기준으로 ROI를 다시 잡는다. 1~4를 다시 반복한다. meanshift의 단점은 복잡한 계산에 의해 실시간사용에는 무리

camshift추적 [내부링크]

camshift함수는 물체의 위치,크기,방향을 추적할 수 있다. 1.ROI: 전체 이미지 2.탐색 윈도우 초기 위치 및 크기 선택 3.ROI: 탐색 윈도우보다 조금 더 크게 (2 x Area1/2) Color Probability Distribution 계산 4.Mean Shift à 0th Moment와 평균 위치 계산 5.다음 프레임에서 탐색 윈도우의 중심 위치와 크기 설정 스텝 3으로 이동 1. 초기 탐색 윈도우의 크기와 위치 선택 1-1. 탐색 윈도우의 크기를 2*영역^(1/2)의 크기로 할당하고 중심을 (x,y)로 한다. 2. 초기 탐색 윈도우의 크기보다 큰 탐색 윈도를 계산 지역의 중심에 할당한다. 3. hsv이미지로 계산지역의 칼라 히스토그램의 룩업 테이블을 만든다. 4. 칼라확률 분포 계산 5. 탐색 윈도우에서 객체 중심을 찾는다. 6. 물체의 중심에 탐색 윈도를 위치시키고 영역을 찾는다. 7. 수렴하면 xyz회전 각도를 알아낸다. 8. 7번의 내용으로 1-1 다시 설

학부생때 배운 공업수학 및 선형대수학이 부족할때 [내부링크]

벡터 & 선형대수학내용 범한서적주식회사 tensor 해석 개론, 최덕기 정말 도움이 많이되었다.

KITAS2017 [내부링크]

IT KITAS2017 ninestar 2017. 8. 3. 9:10 이웃추가 본문 기타 기능 2015 2016에도 갔었던 키타스 작년에 키타스백에서 우노큐브 받았었는데 올해도 키타스백 사러가볼까

[공유] 구글이 생각한 스마트폰 문제점! 그 대답은 Pixel 2 [내부링크]

출처 디픽 | 네이버 포스트 구글이 생각한 스마트폰 문제점! 그 대답은 Pixel 2 [BY 디픽] 구글이 10월 4일 이벤트 티저 영상을 공개했습니다. 스마트폰 변경을 고민하고 있는 당신에게... m.post.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

[공유] <유니콘> 광고 차단 어플을 소개합니다! 삼성, 얀덱스 브라우저 사용 가능 [내부링크]

IT [공유] <유니콘> 광고 차단 어플을 소개합니다! 삼성, 얀덱스 브라우저 사용 가능 ninestar 2017. 9. 20. 0:35 이웃추가 본문 기타 기능 출처by 카트망고 <유니콘> 광고 차단 어플을 소개합니다! 삼성, 얀덱스 브라우저 사용 가능 모바일 기본 브라우저로 삼성이나 얀덱스 혹은 광고 차단 기능이 없는 브라우저를 쓰시는 분들은 데이터를 ... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

[공유] 닌텐도 스위치, 12월1일 한국 정발…'젤다의 전설'은 미정 [내부링크]

출처 뉴스 > 아시아경제 | 네이버 뉴스 스크랩된 글은 재스크랩이 불가능합니다.

[공유] 하드 복구 프로그램 파티션 그루 사용기 ... [내부링크]

출처 세상이 심심하다...;;|DouGLa5 하드 복구 프로그램 파티션 그루 사용기 Partition Guru 하드가 맛이가서 되돌리려는데 검색을 해봐도 죄다 업체 광고글에 체크디스크해라 뭐해라 하는데 물론 여기서 되는 사람도 많겠지만 나는 그 어떤것도 되질않았다.. 그래서 방법을 찾고 찾다가 결국 복원하는것은 포기하고 복구하는걸로 맘을먹었지만 R-Studio 등 각종 복구프로그램을 돌려봤지만 대다수가 복구는되는데 파일명이 안맞거나 없어지는 파일이 많았었다 ㅠ 그러던중 발견한게 바로 파티션그루 Partition Guru! 우연히 나와 비슷한 증상에 시달리던 블로거님에서 발견한것인데 해당 블로거님은 하드자체를 복원하셨지만 난 그게 되지않아서 하드내에있던 파일만을 복구하게됬다 하드 복구율은 거진 100%라고 해도 과언이 아닐정도로 모든 파일들을 복구가가능했었고 또한 기존에있던 파일명,정렬까지 모두 유지되어있었다.. 정말 대단한 프로그램.. 아무튼! 프로그램을 설명하기에 앞서 나의 증상과

. [내부링크]

IT . ninestar 2017. 10. 26. 19:43 이웃추가 본문 기타 기능 https://opentutorials.org opentutorials.org 모듈 Module 1,939 전체보기 아두이노 모듈내 토픽 갯수 8 봤어요 237 egoing 토픽 2222 / 봤어요 318 NGINX 모듈내 토픽 갯수 20 봤어요 147 egoing 토픽 2222 / 봤어요 318 인터넷 모듈내 토픽 갯수 10 봤어요 641 egoing 토픽 2222 / 봤어요 318 CODE 모듈내 토픽 갯수 25 봤어요 566 egoing 토픽 2222 / 봤어요 318 HTML/CSS Cookbook 모듈내 토픽 갯수 11 봤어요 48 리체:leezche 토픽 1208 / 봤어요 89 + 직접 모듈을 만... opentutorials.org

11월 18일 연탄봉사 [내부링크]

일기 11월 18일 연탄봉사 ninestar 2017. 11. 18. 6:26 이웃추가 본문 기타 기능 연탄봉사

SK 기가 인터넷 주기적으로 순간 끊김(해결방법 추가) [내부링크]

SK기가 쓰고있는데 인터넷을 하든 게임을하든 토렌트로 뭘 받든 하든 방송을 보든 자꾸 주기적으로 팅긴다. (3~10분마다) 이유가 네트워크-어댑터설정-로컬영역 설정-자세히에 보면 IP임대날짜와 만기날짜가 있는데 만기날짜가 한시간 뒤 이다. 한시간이 지나면 자동으로 IP를 갱신하면서 그순간 네트워크가 끊김. 이것때문에 포맷까지 해봄. regedit에서 HKEY_LOCAL_MACHINE - SYSTEM - CurrentControlSet - Serviecs- Tcpip - Prrameters - interfaces경로에 {09AD8F6D-9A9D-46C0-8AB9-60D6E98D4DF1}, {93FEDFA2-3FC6-4E2B-8F4B-436737F5B78D} 2개 폴더가 있을것이다. 각각 폴더안에 DhcpConnFoceBroadcastFlag 라는 키값을 1로 강제로 변경해준다. iptime 경우에 공유기 설정 고급설정->네트워크 관리->내부 네트워크 설정-ip대여시간 설정 변경 이걸

컴퓨터 견적 [내부링크]

IT 컴퓨터 견적 ninestar 2018. 3. 5. 19:31 이웃추가 본문 기타 기능 견적 지우고 다시쓰기만 10번째 ㅠㅠ

고정밀 이벤트 타이머(HPET) 켜기/끄기 [내부링크]

명령어 : bcdedit /set usepaltformclock false 켜기 : bcdedit /set usepaltformclock true 컴퓨터에는 내부 동작 시간의 기준점을 만드는 타이머가 있는데 이 타이머는 컴퓨터 내부의 시간을 유지해주는것 외에도 모든 프로그램이 동작하는 주기에 영향을 줍니다. 예전에는 저해상도의 타이머를 사용해도 크게 부족함이 없었지만 컴퓨터가 발전해감에 따라 더 정밀한 고해상도의 타이머가 필요하게 되서 나온게 HPET(High Precision Event Timer) 입니다. HPET를 사용하면 기존 TSC 타이머나 ACPI 타이머등보다 좀 더 오차가 적은 정밀한 타이밍으로 CPU의 오버헤드를 줄여주게 되어 프로그램 구동시 좀더 빠른 동작과 정밀한 동작을 할수 있게 됩니다. 특히 음원 샘플링을 하는 경우 음질 향상이 되거나 잡음이 줄어드는 등의 효과를 볼 수도 있다고 알려져 있습니다. 멀티미디어와 관련된 성능 향상 효과도 있지만 게임이나 일반 프로그

2018년 3월 9일 오전 2시 58분 [내부링크]

CL값을 15, tRAS값을 34 준 것 같은데 16,35가 들어가있네.. 삼성 c다이 19200 16기가 램 램타 3200Mhz 2400->3200 링스 : 메모리80% 10회 잔차일정 cpu온도95도 이하, memtest : 12개 2500씩 100% 0에러 cpu온도 85도 이하 안정화 이정도면 만족.. 시퓨는 그냥 터보부스터만 켜놓고 윈도우 고성능 전압값도 손안대고 자동으로 줌 결과는 47배수 고정 전압값은 1.3~1.4V 정도 왔다갔다 한다. 파스 돌려보니 평균정도 되는것 같다. 이정도로 만족하고 쭉 써야겠음

홈페이지 제작 [내부링크]

홈페이지 홈페이지 제작 ninestar 2018. 3. 13. 14:27 이웃추가 본문 기타 기능 1. 도메인 구매 - 가비아, 아이네임즈에서 각각 한개씩 구매함 2. 호스팅 업체 선정(개인 서버 구축은 너무 복잡 ㅠ) - 가비아 or 아이네임즈에서 받을 예정 <가비아> <아이네임즈> 3. 도메인에 워드프레스 or XE설치 4. 보안서버 신청 5. 약관 및 개인정보취급방침 작성 6. 상세페이지 디자인, PG사 신청 7. 회원가입및 등급에따른 혜택, 회원전용 게시판, QnA, 공지사항, 고객센터, 이벤트 8. 네이버 검색등록, 모바일 페이지, 모바일 결제 확인 9. 재무제표 작성

3월14일 [내부링크]

홈페이지 3월14일 ninestar 2018. 3. 14. 18:07 이웃추가 본문 기타 기능 워드프레스 설치완료 루트 도메인에서 지정한 하위 디렉토리로 리디렉션 하는법 https://codex.wordpress.org/Giving_WordPress_Its_Own_Directory Giving WordPress Its Own Directory « WordPress Codex Interested in functions, hooks, classes, or methods? Check out the new WordPress Code Reference ! Giving WordPress Its Own Directory Languages : English • Français • WordPress Its Own Directory 日本語 Polski • Русский • Português do Brasil • ( Add your language ) S codex.wordpress.org

[공유] 0xc000007b 오류 (런타임류 미설치시)발생시 해결 (올인원런타임설치팩) [내부링크]

컴퓨터 [공유] 0xc000007b 오류 (런타임류 미설치시)발생시 해결 (올인원런타임설치팩) ninestar 2018. 3. 26. 8:26 이웃추가 본문 기타 기능 출처by 컴프로 0xc000007b 오류 (런타임류 미설치시)발생시 해결 (올인원런타임설치팩) 응용프로그램이나 게임 실행시 발생하는 0xc000007b 오류는 가장 흔한 원인으로 런타임류 배포 패키지가 설... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

모니터 주사율에 맞게 동영상 보기 [내부링크]

http://arimabox.blogspot.kr/2016/09/nvidia-vga-svp-60.html NVIDIA VGA 에서 SVP 로 60 프레임 동영상 보기 NVIDIA 및 내장 그래픽 사용자분들을 위한 60프레임으로 동영상을 보는 방법입니다. AMD 사용자분들은 이전에 소개한 플루이드 모션이 더 좋습니다. http://arimabox.blogspot.kr/2016/07/amd-... arimabox.blogspot.kr svp4

[공유] 워드프레스, XE 관리자 비밀번호 초기화 [내부링크]

홈페이지 [공유] 워드프레스, XE 관리자 비밀번호 초기화 ninestar 2018. 4. 18. 16:08 이웃추가 본문 기타 기능 워드프레스 관리자 비밀번호 DB이용해서 변경법 출처by 닷홈 DOTHOME 워드프레스, XE 관리자 비밀번호 초기화 안녕하세요. 닷홈입니다. 오늘은 워드프레스와 XE의 비밀번호 분실 시 비밀번호 재설정하는 방법을 소개... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

[공유] 무료 원격 ssh 접속 프로그램 추천 putty말고 'mobaXterm' 쓰자 [내부링크]

홈페이지 [공유] 무료 원격 ssh 접속 프로그램 추천 putty말고 'mobaXterm' 쓰자 ninestar 2018. 4. 19. 12:03 이웃추가 본문 기타 기능 출처by 차니 무료 원격 ssh 접속 프로그램 추천 putty말고 'mobaXterm' 쓰자 원격 ssh 접속 프로그램 추천 mobaXterm가장 간단하고 널리 사용되고 있던 원격 ssh 접속프로그램인 putty... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

[공유] 윈도우10 설치 오류 해결 방법 (선택한 디스크가 GPT 파티션 스타일입니다.) [내부링크]

컴퓨터 [공유] 윈도우10 설치 오류 해결 방법 (선택한 디스크가 GPT 파티션 스타일입니다.) ninestar 2018. 5. 16. 2:15 이웃추가 본문 기타 기능 출처by 아따아빠 윈도우10 설치 오류 해결 방법 (선택한 디스크가 GPT 파티션 스타일입니다.) 진료실 컴퓨터를 바꾸면서 윈도우를 설치하는데, 처음 보는 메세지가 뜨면서 설치가 안됩니다;; 이 디스크... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

[공유] 화면 어디서든 지문 인식하는 삼성전자 특허 공개 [내부링크]

IT [공유] 화면 어디서든 지문 인식하는 삼성전자 특허 공개 ninestar 2018. 11. 1. 12:10 이웃추가 본문 기타 기능 출처 화면 어디서든 지문 인식하는 삼성전자 특허 공개 by 테크플러스 화면 어디서든 지문 인식하는 삼성전자 특허 공개 스마트폰 지문 인식 기능은 사용자에게 편리함을 제공한다. 복잡한 비밀번호나 패턴을 입력하지 않아도 된... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

유선 진공청소기 구매 가이드 [내부링크]

겨울철이 되니 비염도 심해지고 코가 너무 건조해져서 청소기, 가습기, 공기청정기를 사려고 마음먹고 며칠째 알아보는 중이다. 처음에는 요즘 유행하는 무선이고 다이슨 제품 같이 생긴(건 형식) 것을 알아보았다 하지만 무선제품이다 보니 배터리가 내장되어 있다. 각 제품마다 배터리 보증기간이 보통 6~12개월 정도 밖에 안되고 공대생으로서 배터리의 효율을 믿지 않기때문에 무선제품은 배제했다.(2년정도 쓰면 배터리때문에 청소기를 다시구매해야하는 일이 발생) 무선제품은 편하지만 배터리가 항상 문제다. 1) 흡입력 대략 1W=1AW=100PA=0.1KPa 제조사별 다른 단위(다이슨 AW, 타사 W, 차이슨 PA) AW = airWatt W = Watt Pa = pascal 흡입력 = 청소성능 300W ~ 500W정도 범위제품 흡입력이 높을수록 좋지만 전력소모량과 소음도 증가함 그러므로 적당한 흡입력 제품 찾기 흡입력 단계 조절가능한 제품 1000Pa이면 먼지흡입가능, 20KPa면 나사 흡입가능

공기 청정기 구매 가이드 [내부링크]

1) 필터 박테리아, 곰팡이, 음식물조리시 발생되는 미세먼지 들을 여과 하기위해 최소 H13등급 이상 필터 필터 교체주기 및 비용 생각하기 2) 전용면적 실면적보다 1.5배 정도 큰 제품 3) 기타기능 음이온발생기능(음이온 공기청정기 오존으로 유해논란) 배제 유해가스 제거 효율, 탈취필터 장착 4) 에너지효율 365일 켜놓을 거라 에너지효율 중요함 5) 소음 컴퓨터 팬돌아가는 소리도 거슬리니 최대한 소음적은 제품 6) AS 용이성, 보증기간 7) 한국 소비자원 공기청정기 종합결과표 참조 한국 소비자원 공기청정기 시험 결과 전부 만족하는 위닉스 AZSE430 제품을 구매했음

가습기 구매 가이드 [내부링크]

1) 종류 초음파 : 진동자가 있어 물을 진동시켜 작은입자로 쪼개어 배출 - 장점 : 구매비용 저렴, 가습량 풍부 - 단점 : 세균번식이 쉽고 청소를 매일 해줘야 함 자연기화 : 필터에 물을 적신후 송풍 - 장점 : 소음이 없음 - 단점 : 분무량 조절 불가능, 주기적 필터 교체 필요 가열식 : 물을 끓여서 수증기로 습도 조절 - 장점 : 물을 끓이는 방식이라 살균 좋음 위생좋음, 수증기가 공기중으로 잘 퍼져 가습효과 좋음 - 단점 : 매우 뜨겁기 때문에 안전사고, 전기세 많이 듦 가격면에서 초음파로 선택함 진동자 소재는 스테인리스로 된 제품 2) 기능 초음파 제품 구매하기로 결정해서 청소가 용이한 완전분해 가능 제품 물통 용량 큰 제품 완전방수 가능 제품 알아봄 3) 에너지효율 및 소음 완전 분해 및 방수 가능한 제품이고 가격도 괜찮은 편이여서 구매함

G PRO 마우스 교체2번째 [내부링크]

7월 21일까지 보증기간 3366->hero로 교체해줌

COX 무접점 키보드 구매 [내부링크]

키보드만 몇번째 구매인지... 덱헤슘 프로 적축 덱헤슘 청축 해커 K640 적축 스카이 디지털 메카닉 청축 스카이디지털 NKEY RM3 매크로 청축 와우 대기열 때문에 안팅기게 하려고 RM3 사서 쓰는중에 청축이 질리고 이젠 대기열도 없어서 넣어놓고 그동안 사고 싶었던 COX EMPRESS 무접점 키보드 구매

알파스캔 AGON 271QX [내부링크]

AGON 271QG 쓰고 있는중에 같은 사이즈로 듀얼모니터 구성하고싶어서 산 271QX QG와 QX차이점이 G싱크 밖에 없는것같음 디자인도 완전 똑같음 싸게 구입잘했음 피벗기능도 마음에 듦

이마트 트레이더스 에어프라이어 [내부링크]

대용량 이마트 트레이더스 더 에어프라이어 엑스 7.2L 충동적으로 산 에이프라이어 이지만 너무나 만족하고있는!!! 다양한 음식들을 에어프라이어로 해먹을 수 있다. 웬만한 음식들은 다된다.

캐리어 에어컨 [내부링크]

+12만원 설치비(앵글포함) 839000+120000 원

동영상 싱크 밀림 현상 [내부링크]

https://kin.naver.com/qna/detail.nhn?d1id=1&dirId=1020401&docId=351680829&qb=7J247YSw64S3IOyYpOuUlOyYpCDsi7Htgaw=&enc=utf8&section=kin&rank=2&search_sort=0&spq=0 PC로 유튜브(You Tube) 등의 동영상 시청 시 소리와 영상의 싱크가 맞... 안녕하세요, 너무 답답해서 질문 올립니다. 거의 1년 전 쯤으로 기억하는데요. 어느 날부터 갑자기 소리와 영상의 싱크가 맞지 않는 현상이발생하더라고요. 동영상 재생 시 초반에는 괜... kin.naver.com

[공유] NVIDIA VGA 에서 SVP 로 60 프레임 동영상 보기 [내부링크]

컴퓨터 [공유] NVIDIA VGA 에서 SVP 로 60 프레임 동영상 보기 ninestar 2021. 3. 2. 15:08 이웃추가 본문 기타 기능 출처 NVIDIA VGA 에서 SVP 로 60 프레임 동영상 보기 by ARIMA NVIDIA VGA 에서 SVP 로 60 프레임 동영상 보기 NVIDIA 및 내장 그래픽 사용자분들을 위한 60프레임으로 동영상을 보는 방법입니다.AMD 사용자분... blog.naver.com 스크랩된 글은 재스크랩이 불가능합니다.

파이썬 실수값의 오차 [내부링크]

정수형*실수형 값이 이상하게 나온다. 컴퓨터가 실수를 표현할때 오차가 발생하기 때문인데 decimal, fraction 모듈을 써서 정확히 계산해 주면 될듯 또한 두 실수가 같은지 확인할때도 이렇게 하면 안된다. 0.1+0.2는 0.30000000000000004 근사값으로 표현하면서 발생함. 부동소수점 반올림 오차라고 함. 두 값이 차이가 sys.float_info.epsilon보다 작거나 같으면 두 값은 같다고 판단. sys.float_info.epsilon에 저장된 값을 머신 엡실론(machine epsilon)이라 함. 단순히 두 값이 같은지 판단할때는 math.isclose 함수를 쓰면 된다.

파이썬 [내부링크]

2. 문자열 자료형 파이썬은 문자열끼리 덧셈, 곱셈이 가능하다. 다른 언어에서는 상상도 못할 일이다. 문자열 인덱싱 자동으로 배열에 추가되서 각각 문자열을 처리하기 편하다 문자열 포매팅 2개 이상 포매팅할땐 %(a,b,c) 결과값 c앞에 왜 한칸이 띄어지는지 모르겠음 %-10s 좌측정렬 %10s 우측정렬 format함수 포매팅 *인덱스와 name 혼용해서 사용할땐 name=value형태가 제일 뒤에 와야 한다. format을 매번 뒤에 쓸필요 없이 문장 제일 앞에 f하나만 붙이면 알아서 포매팅 된다. 문자열 포매팅은 수식도 지원한다. 역시 포매팅안에서 g*3같은 수식도 가능함 :< 왼쪽정렬 :> 우측정렬 :^ 가운데정렬 :^10 총10자리, 가운데정렬 {*:@^10} 10자리중 *은 가운데 정렬 ,공백은 @로 채우기 단골 문제 별도 이렇게 간단히 가능하다 문자열 관련 함수들 "a".join 문자열 사이에 a를 삽입 find함수 문자열중 처음으로 나온 위치 반환, 없는 문자는 -1을

파이썬 리스트 자료형 [내부링크]

02-3 리스트 자료형 - 점프 투 파이썬 (wikidocs.net) 리스트 인덱싱 리스트끼리 덧셈 곱셈 가능하고 스플릿도 가능 len 리스트 길이 리스트 저장된 값은 정수형이므로 문자열과 연산 불가능 str함수로 문자열로 변환후 연산 append 리스트 마지막에 요소 추가 내림차순은 따로 함수가 없어서 오름차순후 역순정렬

파이썬 튜플 자료형 [내부링크]

t1은 튜플 t2는 리스트 튜플은 리스트와 매우 비슷하지만 추가 삭제가 안되므로 튜플을 리스트로 변환해서 수정후 다시 튜플로 변환한다

파이썬 딕셔너리 자료형 [내부링크]

딕셔너리 자료형은 인덱스랑 스플릿이 없다 {key1:value1,key2:value2,...}형식 key는 반드시 튜플 value는 정수, 문자, 리스트도 가능

파이썬 집합자료형,불 자료형 [내부링크]

set자료형은 중복을 허용하지 않는다. set자료형은 순서가 없다. set은 인덱싱이 없어서 리스트나 튜플로 변환해야 한다. 불 자료형

파이썬 자료형의 값을 저장하는 공간,변수 [내부링크]

파이썬에서는 같다 라고 선언하면 주소값 까지 같다고 본다. 그래서 추후에 한쪽 변수를 바꿔줘도 다른 한쪽 변수가 변하는 상황이 생긴다. a = [1,2,3] b = a >>> id(a) 4303029896 >>> id(b) 4303029896 >>> a[1] = 4 >>> a [1, 4, 3] >>> b [1, 4, 3] a[1]을 4로 바꿔줬더니 b도 바뀌는 상황이 발생한다 이를 방지 하기 위해서는 1.[:] 이용 >>> a = [1, 2, 3] >>> b = a[:] 2. copy 모듈 이용 >>> from copy import copy >>> a = [1, 2, 3] >>> b = copy(a) 이런식으로 b에 a의 값만 넣는것이다. 또한 두 변수의 값을 바꾸는 경우 파이썬은 아주 간단하게 바꿀 수 있다. >>> a = 3 >>> b = 5 >>> a, b = b, a >>> a 5 >>> b 3

파이썬 조건문 반복문 [내부링크]

if 조건식 : 실행문 else : 실행문 if 조건식: 실행문 else: else안에 if문이 무한히 들어가도 상관없다 if 조건식 : 실행문1 elif 조건식2: 실행문2 else : 실행문n 삼항 조건문 변수=참 if (조건문) else 거짓 ex) result2 = num*2 if num >=5 else num+2 num이 5보다 크거나 같으면 2를 곱하고, 그렇지 않으면 2를 더하라 while 조건식: 실행문1 실행문n

파이썬 단축키(들여쓰기/내여쓰기,주석) [내부링크]

Tab 들여쓰기 Shift +Tab 내여쓰기 Ctrl + / 한줄or블럭 주석처리

파이썬 for문 [내부링크]

for 변수 in 열거형객체: 실행문1 열거형객체는 리스트, 문자열 등등 파이썬에서는 for문이 되게 신기하다 list = [7,9,4,1,8,3,2,5] for i in list : print (i) i에 리스트 원소값들이 하나씩 대입되어 for문 실행 열거형객체에 함수가 들어가도 된다. string = """나는 홍길동 입니다. 주소는 서울시 입니다. 나이는 35세 입니다.""" sents =[] #문장 저장용 변수 words=[] #단어 저장용 변수 #문장 분리후 저장 for sen in string.split(sep="\n"): #줄 단위로 문장을 분리후 sen에 저장 sents.append(sen) for word in sen.split(): #공백으로 단어 분리후 word에 저장 words.append(word) print('문장 :', sents) print('단어:', words) range(stop) : 0~(stop-1) range(start, stop) : sta

파이썬 리스트 [내부링크]

리스트내포 list안에서 for와 if를 사용하는 문법 변수 = [실행문 for 변수 in 열거형객체] 변수 = [실행문 for 변수 in 열거형객체 if 조건식] 변수 = [값1 if 조건 else 값2 for 변수 in 열거형객체] x=[2,4,1,5,7] lst=[i**2 for i in x] # x원소에 제곱 계산 print(lst) num=list(range(1,11)) lst2=[i*2 for i in num if i %2 ==0] #2의 배수만 2를 곱해준다 print(lst2)

파이썬 딕트 [내부링크]

빈도수 구하기 charset = ['가','나','다','가','다','라','가'] wc={} #빈 셋 선언 for key in charset: wc[key] = wc.get(key,0) +1 #get()함수를 이용하여 키에 해당하는 값을 꺼내온다. 이때 값이 없는경우 (최초로 발견된 단어)0으로 초기화 하고 1을 더해서 값을 만든다. print(wc) Get()함수 안쓰고 빈도수 구하기 charset = ['가','나','다','가','다','라','가'] wc={} #빈 셋 선언 for key in charset: if key in wc: wc[key] += 1 else: wc[key]=1 print(wc)

파이썬 클래스 함수 차이 [내부링크]

class 클래스명: def __init__(self): #생성자로 호출할 때 초기값을 준다. self.속성 = 변수 #클래스에서 자기 자신을 의미하는 전달값 self def 함수명(self,매개변수): #self는 class내 모든 메소드에 들어가야 하며, 이 코드 식에서는 cal1,cal2 등이 들어간다. 수행할 문장 객체명 = 클래스명() 객체명.속성 = 값을 넣어줄 수 있음 객체명.메소드() #클래스 내에 있는 함수를 메소드라 칭함 클래스의 필요성 계산기로 예를 들면 3+4를 입력하면 7이 표시된다 거기에 +3을 하면 10이 표시가 된다. 기존 결과값을 메모리에 저장하고 있어야 한다. 소스로 보면 result = 0 def add(num): global result result += num return result print(add(3)) print(add(4)) 이런식으로 global 전역 변수를 사용해서 저장해둔다. 하지만 한 프로그램에서 2대의 계산기가 필요하면?? 각

통계 [내부링크]

median(중위수 ,중간값) 1,2,3,4,5 의 median은 3 1,2,3,100의 median은 (2+3)/2= 2.5 모집단(전체집합) 표본집단(일부만 뽑아낸 집합)

파이썬 함수 장식자 decoration [내부링크]

@함수 장식자 def 함수명(): 실행문 def wrap(func): def decorated(): print('반갑습니다.!') func() print('잘가요') return decorated @wrap def hello(): print('hi~', '홍길동') hello() <출력값>

파이썬 스러운 코딩 enumerate [내부링크]

리스트가 있는 경우 순서와 리스트의 값을 전달하는 기능을 가집니다. enumerate는 “열거하다”라는 뜻입니다. 이 함수는 순서가 있는 자료형(list, set, tuple, dictionary, string)을 입력으로 받아 인덱스 값을 포함하는 enumerate 객체를 리턴합니다. 보통 enumerate 함수는 for문과 함께 자주 사용됩니다. https://www.daleseo.com/python-enumerate/ 파이썬의 enumerate() 내장 함수로 for 루프 돌리기 Engineering Blog by Dale Seo www.daleseo.com

파이썬 pandas columns 인덱스번호로 삭제(column명이 같은 경우) [내부링크]

(10,4)데이터프레임 만들어서 컬럼명을 b,a,a,d로 설정 import pandas as pd import numpy as np np.random.seed(1234) data = pd.DataFrame(np.random.randn(10, 4)) data.columns=['b','a','a','d'] print(data) data.drop(labels=['a'], axis=1) import pandas as pd import numpy as np np.random.seed(1234) data = pd.DataFrame(np.random.randn(10, 4)) data.columns=['b','a','a','d'] print(data) 인덱스 첫번째 'a'를 지우고싶어서 컬럼인덱스로 1로 접근했는데 결과값은 엉뚱하게 나온다. data.drop(data.columns[1], axis=1) 컬럼인덱스 1번 'a'와 이름이 같은 인덱스2번도 지워져 버림 컬럼이름이 같으면 이상하게 작동한

Samsung Note 일반 PC(컴퓨터)와 연동하기 [내부링크]

삼성노트앱은 마이크로소프트 스토어에 공개되어 있는데 일반 PC에서는 설치가 되지 않는다 https://apps.microsoft.com/store/detail/samsung-notes/9NBLGGH43VHV?hl=ko-kr&gl=kr Get Samsung Notes from the Microsoft Store Samsung Notes는 향상된 S Pen으로 멋지게 글을 쓰거나 그림을 그리고, 클라우드에 저장할 수 있습니다. Samsung Notes는 S Pen을 이용하여 노트, 메모, 이미지, 음성이나 음악이 들어간 노트를 만들 수 있습니다. 새로운 노트를 만들어 보세요. 주 화면 하단의 우측에 있는 +를 누르면 새로운 노트를 작성할 수 있습니다. 새로 만들어진 노트는 sdocx 확장자를 가지게 됩니다. 손글씨로 노트를 작성해 보세요. 작성 중인 노트에서 손글씨 아이콘을 누르면, 손으로 쓴 글씨가 직접 표시됩니다. 그림을 그려 보세요. ... apps.microsoft.com 스토어

파이썬, R, Numpy에서 같은 난수 발생 패키지 [내부링크]

같은 시퀀스 난수 발생시키는 패키지 GitHub - GjjvdBurg/SyncRNG: Reliably generate the same random numbers in R and Python arrays - Creating same random number sequence in Python, NumPy and R - Stack Overflow

[파이썬]2021년 국가별 일일 코로나확진자 (csv파일) 통계 (pandas, numpy) [내부링크]

https://github.com/CSSEGISandData/COVID-19/tree/master/csse_covid_19_data COVID-19/csse_covid_19_data at master · CSSEGISandData/COVID-19 Novel Coronavirus (COVID-19) Cases, provided by JHU CSSE - COVID-19/csse_covid_19_data at master · CSSEGISandData/COVID-19 github.com Johns’ Hopkins 대학 내 The Center For Systems Science and Engineering(CSSE) 에서 업데이트하는 전 세계 코로나 (COVID-19) 발생 현황 데이터셋이다. github에 누적데이터를 csv파일로 매일 업데이트 하는데 파이썬의 pandas와 numpy를 이용하여 2021년 365개 파일을 불러와서 일일 확진자,사망자를 구해보았다. Raw데이터 (1) 전처

[R] 2021년 코로나 확진자 일일 통계 (csv파일) [내부링크]

첨부파일 Report.docx 파일 다운로드 COVID-19/csse_covid_19_data at master · CSSEGISandData/COVID-19 (github.com) 내용은 위 파이썬 프로젝트와 똑같다. 다만 파이썬으로 했던걸 R로 바꿔서 해보기 파이썬에서는 pandas를 이용해 데이터프레임을 다뤘지만 R에서는 기본 내장 함수들을 이용하여 조금 더 편하게 데이터프레임에 접근 한 것 같다. 파이썬에서 해보지 못했던 내용을 R에서 해보게 되었다. 회귀분석의 조건 선형성 독립성 등분산성 정규성 1)Shapiro-Wilk Test 2)히스토그램으로 시각화 후 그래프모양 보기 3)Q-Q plot으로 시각화 후 모양 보기 각 국가의 확진자 수에 대해 회귀분석을 위해 정규성 검정을 시행하였다. ###정규성검정#### shapiro.test(test_sum_DF$Confirmed) ##p-value shapiro.test(test_sub_DF$Confirmed) > shapiro.

2022년 10월 빅데이분석기사 필기시험(5회)후기, 가답안 [내부링크]

수제비,기사패스 800제로 공부했는데 시험보고 나오면서 못본 내용들이 10문제정도 나온 것 같았고 어려운 문제가 많아서 '망했다. 다음 회차 생각 해야겠다 그리고 10월말에 있을 ADsP는 준비를 철저히 하고 가자'라는 생각이 들었다. 회차가 적은 빅분기는 기출이 별로 없어서 공부하기 힘들었는데 ADsP는 문제은행식이라 기출문제를 많이 풀어보란 후기를 많이 봤었다. 기출문제와 정보를 얻고자 카페를 갔는데 빅분기 가답안이 있길래 채점을 해봤다. 데이터 전문가 포럼 (빅데이터분석기사, ADP, SQLP, DAP 등) : 네이버 카페 (naver.com) 총 2시간 시험시간 중 80문제 한번 다 푸는데 1시간 10분 검토하는데 30분 총 1시간 40분을 소비했다. 검토하면서 7~8문제 답을 고쳤는데 가답안 채점하면서 보니 답 고친것중 한문제 빼고 다 맞았다.(검토의 중요성을 다시한번 느꼈다) 확실하게 맞은것을 세보니 60문제 정도 되는것 같았다.(80문제중 48개만 맞으면 합격) 어려워서

2022년 9월 25일 부평역 근처로 이사(화장실 공동 배기구 담배냄새) [내부링크]

부평역이 걸어서 3분거리다 너무 좋다 2년전에 인테리어 싹 해놓은 집이라 새집 같이 깨끗하고 좋았다 근데 화장실에서 담배(재떨이) 냄새가 너무 나서 온집에 담배냄새가 퍼진다. 전 세입자가 담배를 핀것도 아닌데 담배냄새가 계속 난다. 혹시 니코틴이 벽에 묻었나 해서 벽도 닦아봤는데 여전히 난다. 양초도 켜놨는데 안없어진다. 이건 냄새가 계속 리필 되는것이다 판단하고 환풍기를 비닐로 덮어버리고 테이핑해서 밀봉해버렸다. 효과가 있었다. 범인은 공동배기구 였구나 해서 화장실 천장을 열어봤더니 담배냄새가 직빵으로 내려온다. 김장용 비닐을 사서 천장 전체를 덮고 테이핑해서 아예 공기를 못들어오게 막아버렸더니 더이상 냄새가 안난다.해냈다 너무 행복했다. 화장실 인테리어 시공업체에서 공동배기구쪽 잘못 시공한듯 싶다.

프로젝트 보고서 피드백 [내부링크]

보고서 제목은 제대로 써라 데이터의 구조 설명해라(데이터에 대한 정의) 보고서 소스는 캡쳐하지말라 페이지번호 써라 가독성 좋게 해라 바탕색 쓰지마라 보고서는 고객이 상대방이 보라고 쓰는거지 본인 편하게 요약하고 이미지 쓰지말라 글자 폰트, 사이즈 통일해라 폰트는 2~3개 만 써라 페이지 넘버링 해라 들여쓰기 잘해라 가운데정렬은 되도록 하지마라 논문처럼 각주로 출처 및 부연설명 써라 강조는 찐 빨강, 파란색으로 (0,0,255) (255,0,0) 임원들은 결론 (인사이트,시사점,알수있는정보)이 중요하다 - 마치 인터넷에서 한줄or세줄 요약 - 코로나확진자 프로젝트에서는 20개 국가 정렬에 대한 해석 (예.총확진자, 사망자 비율 도출) - 부가 가치 창출해라 팀코드, 개인코드 따로 제출해라

R 챕터1 연습문제 [내부링크]

첨부파일 YSG R ch1 Ex.R 파일 다운로드 R ch1 1. 현재 작업공간을 확인하고, “C:/Temp”로 변경하시오. 2. 다음 조건에 맞게 name, age, address 변수를 생성하고 처리하시오 1) 각 변수의 특성에 맞게 값을 초기화하고 결과를 확인한다. 2) 다음 함수를 이용하여 각 변수의 자료형(data type)을 확인한다. 3. R 에서 제공하는 women 데이터 셋을 다음과 같이 처리하시오. 1) women 데이터 셋은 어떤 데이터의 모음인가? 2) women 데이터 셋의 자료형과 자료구조는? 3) plot()함수를 이용하여 기본 차트 그리기 4. R에서 제공하는 c()함수를 이용하여 벡터를 생성하고 데이터를 처리하시오. 1) 1-100까지 벡터를 생성한다. 2) 생성된 벡터를 대상으로 평균을 구한다. #1. 현재 작업공간을 확인하고, “C:/Temp”로 변경하시오 getwd() setwd('C:/Temp') getwd() #2. 다음 조건에 맞게 name,

R 챕터2 연습문제 [내부링크]

첨부파일 YSG R ch2 Ex.R 파일 다운로드 #################################################### # 1. 다음과 같은 벡터 객체를 생성하시오 # 1) 벡터 변수 Vec1를 만들고, “R”문자가 10회 반복되도록 하시오. # 2) 벡터 변수 Vec2에 1-10까지 3을 간격으로 연속된 정수를 만드시오. # 3) 벡터 변수 Vec3에 1-10까지 3을 간격으로 연속된 정수가 3회 반복되도록 만드시오. # 4) 벡터 변수 Vec4에 Vec2 – Vec3이 모두 포함되는 벡터를 만드시오. # 5) 25부터 15까지 5를 간격으로 seq()함수를 이용하여 벡터를 생성하시오. # 6) 벡터 변수 Vec4에서 홀수 번째 값들만 선택하여 벡터 변수 Vec5에 첨자를 이용하여 할당하시오 Vec1 <- rep("R",10);Vec1 Vec2 <- seq(1,10,3);Vec2 Vec3 <- rep(Vec2,3);Vec3 Vec4 <- c(Vec2, Ve

R 챕터3 연습문제 [내부링크]

첨부파일 YSG R ch3 Ex.R 파일 다운로드 # 1. R에서 제공하는 CO2 데이터 셋을 대상으로 다음과 같은 단계로 파일에 저장하시오. # 1단계: Treatment 컬럼 값이 ‘nonchilled’ 인 경우 ‘CO2_df1.csv’ 파일로 행번호를 제외하 # 고 저장한다. # 2단계: Treatment 컬럼 값이 ‘chilled’인 경우 ‘CO2_df2.csv’파일로 행 번호를 제외하고 저 # 장한다. data(CO2) non <- subset(CO2,Treatment=='nonchilled') write.csv(non, "CO2_df1.csv", row.names = F) chilled <- subset(CO2,Treatment=='chilled') write.csv(chilled, "CO2_df2.csv", row.names = F) # 2. 본문에서 작성한 titanic변수를 이용하여 다음을 실행하시오 # 1) ‘titanic.csv’파일을 titanicData변수로

R 챕터4 연습문제 [내부링크]

첨부파일 YSG R ch4 Ex.R 파일 다운로드 # # 1. 다음의 벡터 EMP는 ‘입사연도이름급여’순으로 사원의 정보가 기록된 데이터이다. 벡터 # EMP를 이용하여 다음과 같은 출력 결과가 나타나도록 함수를 정의하시오. # EMP <- c(“2014홍길동220”, “2002이순신300”, “2010유관순260”) # stringr 패키지: str_extract(), str_replace()함수 # 숫자변한함수: as.numeric()함수 # 한글 문자 인식 정규표현식 패턴: [가-힣] emp_pay<-function(x) { library(stringr) pay <- numeric() name <- character() idx <- 1 for(n in x) { name[idx] <- str_extract(n, '[가-힣]{3}') pay1 <- str_extract(n, '[가-힣]{3}[0-9]{3}') pay1 <- str_replace(pay1, '[가-힣]{3}', ''

R 챕터6 연습문제 [내부링크]

첨부파일 YSG R ch6 Ex.R 파일 다운로드 # 1. reshape2패키지와 iris데이터 셋을 사용하여 다음을 실행하시오. # library(reshape2) # data(iris) # 1) 꽃의 종류(Species)를 기준으로 ‘넓은 형식’을 ‘긴 형식’으로 변경하기 # (힌트. melt()함수 이용) # 2) 꽃의 종별로 나머지 4가지 변수의 합계 구하기 # (힌트. dcast()함수 이용) library(reshape2) data(iris) #1) melt <- melt(iris,id="Species", na.rm=TRUE) head(melt) #2) names(melt) dcast <- dcast(melt, Species ~ variable, sum) dcast # 2. dplyr패키지와 iris데이터 셋을 이용하여 다음을 실행하시오 # 1) iris의 꽃잎의 길이(Petal.Length)컬럼을 대상으로 1.5이상의 값만 필터링하시오 # (힌트. 파이프 연산자(%>%)

R 챕터7 연습문제 [내부링크]

첨부파일 YSG R ch7 Ex.R 파일 다운로드 #1번. 본문에서 생성된 dataset2의 직급(postion)컬럼을 # 대상으로 1급 -> 5급, 5급 -> 1급 형식으로 역코딩하여 # position2컬럼에 추가하시오. dataset2$position2 <- 6-dataset2$position dataset2$position2[dataset2$position2==1] <- '1급' dataset2$position2[dataset2$position2==2] <- '2급' dataset2$position2[dataset2$position2==3] <- '3급' dataset2$position2[dataset2$position2==4] <- '4급' dataset2$position2[dataset2$position2==5] <- '5급' dataset2$position;dataset2$position2 #2번. 본문에서 생성된 dataset2의 resident 컬럼을 대상으로 # N

R 평가 [내부링크]

첨부파일 LMS평가_YSG.R 파일 다운로드 ################################################################################################# # [문항1] * 아래 문제를 R code로 작성하여 제출하시오. # 다음은 학생별 과목별 시험 점수이다. Data를 대상으로 데이터프레임을 생성하고, 그 데이터프레임을 사용하고apply()를 적용하여 행/열 방향으로 조건에 맞게 통계량을 구하시오. # (난이도 : 3 / 배점 : 25점) # # 1) 3명 의사의 과목점수를 이용하여 데이터프레임(DataFrame)을 생성하여 화면출력하시오. # # 2) 수학과목에서 평균점수를 구하시오. # # 3) 윤봉길의사의 과목 평균점수를 구하시오. # # 4) 국어과목의 표준편차를 구하시오 # # 5) 각 과목의 최고점을 받은 사람은 누구인지 코딩하여 결과를 산출하시오. sub <- c("국어(Kor)","영어(Eng)","수

R 두 데이터프레임 빼기 (NA값 있을경우) [내부링크]

#함수 선언 sub_ <- function(x,y){ return(ifelse(is.na(x),0,x)-ifelse(is.na(y),0,y)) } #함수 호출 sub_(A,B) R에서 NA값이 있는 경우 사칙연산하면 NA가 나온다 그러므로 반드시 NA값 처리후 사칙연산을 해줘야한다. 하지만 R에서는 파이썬의 pandas와 달리 다른값으로 대체후 계산이 없다. 그래서 함수를 따로 만들어서 NA를 0으로 대체후 계산하였다.

R 연습문제 100제 [내부링크]

첨부파일 R 기초 100문제 — DataManim.pdf 파일 다운로드 출처 기초 100문제 — DataManim

파이썬 챕터3 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_03 Exercise.py 파일 다운로드 #01-A형 항공사에서는 짐을 부칠때 10kg이상이면 수수료 만원, 만약 10kg미만이면 수수료x # 사용자의 짐의 무게를 키보드로 입력 받아서 사용자가 지불하여야 할 금액을 계산하는 프로그램 Weight=int(input("짐의 무게는 얼마입니까?")) if Weight < 10: print('수수료는 없습니다.') else: print('수수료는 10,000원 입니다.') #01-B형 수수료는 10의 배수 단위로 만원씩 증가한다 10kg미만은 수수료없다. Weight=int(input("짐의 무게는 얼마입니까?")) over=Weight//10 if Weight < 10: print('수수료는 없습니다.') else: print(f'수수료는 {over*10000:,d}원 입니다.') #02 1~10 사이 난수 맞추기 게임 import random print('>>1~10 숫자 맞추기 게임<<')

파이썬 챕터4 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_04 Exercise.py 파일 다운로드 #1번 다음 1st변수를 대상으로 각 단계별로 list를 연산하시오 #1st=[10,1,5,2] #단계1 : 1st원소를 2배 생성하여 result변수에 저장 및 출력 #단계2 : 1st첫번째 원소에 2를 곱하여 result 변수에 추가 및 출력 #단계3 : result의 홀수 번째 원소만 result2변수에 추가 및 출력 lst = [10,1,5,2] i=0 result = [] result2 = [] result = lst*2 print('단계1:',result) result.append(lst[0]*2) print('단계2:',result) result2=[result[i] for i in range(len(result)) if i%2==1] print('단계3:',result2) #2번 import random r=[] a=int(input("vector 수:")) for i in range

파이썬 챕터5 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_05 Exercise.py 파일 다운로드 #임성구 #1번 def StarCount (height): cnt=total=0 while cnt < height: cnt += 1 print('*' * cnt) total+=cnt return total height = int(input('height : ')) print('star개수: %d'%StarCount(height)) #2번 def bank_account(bal): balance=bal def getBalance(): return balance def deposit(money): nonlocal balance balance += money print(f'{money}원 입금후 잔액은 {getBalance()}원 입니다.') def withdraw(money): nonlocal balance if balance>=money: balance-= money print(f'{money}원 출금

파이썬 챕터6 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_06 Exercise.py 파일 다운로드 #1번 class Rectangle: width=height=0 def __init__(self,width,height): self.width=width self.height=height def area_calc(self): area = self.width*self.height return area def circum_calc(self): circum = 2*(self.width+self.height) return circum print("사각형의 넓이와 둘레를 계산합니다") w=int(input("사각형의 가로 입력:")) h=int(input("사각형의 세로 입력:")) print('-'*30) rect=Rectangle(w,h) print("사각형의 넓이:", rect.area_calc()) print("사각형의 둘레:", rect.circum_calc()) print('-'*30) #2번 f

파이썬 챕터7 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_07 Exercise.py 파일 다운로드 ##1번 import re email = """[email protected] [email protected] [email protected] [email protected] [email protected]""" from re import findall, match, compile emaillist=[] for e in email.split(sep='\n'): emaillist.append(e) # pat = compile("^[a-z][0-9a-zA-Z]{3,}@[a-z][0-9a-zA-Z]{2,}[.][a-z]{2,3}([.][a-z]{2,3})?") # pat = compile("[a-z][0-9a-zA-Z]{3,}@[a-z][0-9a-zA-Z]{2,}[.][a-z]{,3}[a-z.]{,3}$") pat = compile(r""" #아이디@호스트이름.최상위도메인.최상위도메인 [a-z] #아이디 첫문자 영문소문자

[빅분기 실기_R]day02 2회 기출유형 [내부링크]

첨부파일 basic1.csv 파일 다운로드 Q1.데이터셋(basic1.csv)의 'f5' 컬럼을 기준으로 상위 10개의 데이터를 구하고, 'f5'컬럼 10개 중 최소값으로 데이터를 대체한 후, 'age'컬럼에서 80 이상인 데이터의'f5 컬럼 평균값 구하기 Q2.데이터셋(basic1.csv)의 앞에서 순서대로 70% 데이터만 활용해서, 'f1'컬럼 결측치를 중앙값으로 채우기 전후의 표준편차를 구하고 # 두 표준편차 차이 계산하기 Q3. 데이터셋(basic1.csv)의 'age'컬럼의 이상치를 더하시오! # 단, 평균으로부터 '표준편차*1.5'를 벗어나는 영역을 이상치라고 판단함 #https://www.kaggle.com/code/limmyoungjin/tutorial-t1-2-r-2/notebook #T1 2회 기출유형 R_2회 df<-read.csv('basic1.csv') ########################## Q1 ########################## # 데

ADsP 시험 D-1 [내부링크]

빅분기랑 시험범위도 비슷하고 해서 시험공부는 어느정도 마쳤으니 컨디션 조절만 잘 해서 시험보자 전날 30~34회 기출 오답 체크하고 총정리 잠 충분히 자고 전날 점심은 자극적이지 않은 음식먹고, 전날 저녁, 아침은 먹지 않고 (아침은 초콜렛정도로 당보충) 요새들어 10여년 전에 본 수능 시험때도 이렇게 안했었는데 그때 공부좀 더 열심히하고 시험에 신경썼더라면...라는 생각이 자주 든다.

ADsP 35회 데이터분석 준전문가 후기(가답안) [내부링크]

어려웠던 34회에 비해 쉽게 출제 된 듯 하다 기출로 봤던 문제들도 많이 나와서 모든 문제 잘 푼듯 하다. 시험 다 치르고 나오는데 기분이 좋았다. 대충 생각나는 답안& 카페사람들 집단지성 가답안 주관식 1. 데이터베이스 (데이터 웨어하우스라 적음)ㅠㅠ 2. 유전알고리즘 3. 하향식접근법 4. 집중구조 5. 다차원척도법 (코사인유사도라 적음) 6. 후진제거법 7. 홀드아웃 8. 0.4 9. 포아송분포 10. 최단연결법 ---------------------------------------------------------------------------------- 1과목 1. DBMS 2. 익명화 3. 정부가 이익을 위해서 개인 ~~ 4. 사물인터넷 인간 개입을 최대화한다? 5. 빅데이터 위험 요인 - 6. 알고리즈미스트 7. SQL 8. 네트워크 최적화 9. 데이터베이스(주관식) 10. 유전적 알고리즘(주관식) 2과목 11. 회피 전이 완화 수용 ? 문제였던거 같고 답은 - 관리

[빅분기 실기_R] day01 3회기출 작업형1-1 [내부링크]

첨부파일 t1-data2.csv 파일 다운로드 2022년 데이터 중 2022년 중앙값보다 큰 값의 데이터 수 풀이 a<-read.csv('t1-data2.csv',row.names=1) mid<-median(as.numeric(a[1,])) loc<-which(mid<a[1,]) length(a[1,c(loc)]) https://github.com/yimstar9/Engineer-Big-Data-Analysis_R/blob/main/3%ED%9A%8C%EA%B8%B0%EC%B6%9C%EC%9C%A0%ED%98%95_%EC%9E%91%EC%97%85%ED%98%951_1.ipynb Engineer-Big-Data-Analysis_R/3회기출유형_작업형1_1.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R 빅분기 독학. Contribute to yimstar9/Engineer-Big-Data-Analysis_R development by

[빅분기 실기_R] day01 3회기출 작업형1-2 [내부링크]

첨부파일 t1-data1.csv 파일 다운로드 Q. 결측치 데이터(행)을 제거하고, 앞에서부터 60% 데이터만 활용해, 'f1' 컬럼 3사분위 값을 구하시오 60%가 소수점일 경우 절사(예: 36.6 일때 36으로 계산) data: t1-data1.csv 풀이 #https://www.kaggle.com/code/ptr8190/3rd-type1-2-3-1-2 df<-read.csv('t1-data1.csv') df<-na.omit(df) cut<-floor(nrow(df)*0.6) cut<-df[c(1:cut),] quantile(cut$f1,3/4) https://github.com/yimstar9/Engineer-Big-Data-Analysis_R/blob/main/3%ED%9A%8C%EA%B8%B0%EC%B6%9C%EC%9C%A0%ED%98%95_%EC%9E%91%EC%97%85%ED%98%951_2.ipynb Engineer-Big-Data-Analysis_R/3회기출유형_작업

[빅분기 실기_R] day01 3회 기출유형 작업형1-3 [내부링크]

Q. 결측치가 제일 큰 값의 컬럼명을 구하시오 data: t1-data1.csv 풀이 #https://www.kaggle.com/code/ptr8190/3rd-type1-3-3-1-3 df<-read.csv('t1-data1.csv') ans<-is.na(df[,]) sum<-colSums(ans) names(which.max(sum)) https://github.com/yimstar9/Engineer-Big-Data-Analysis_R/blob/main/3%ED%9A%8C_%EA%B8%B0%EC%B6%9C%EC%9C%A0%ED%98%95_%EC%9E%91%EC%97%85%ED%98%951_3.ipynb Engineer-Big-Data-Analysis_R/3회_기출유형_작업형1_3.ipynb at main · yimstar9/Engineer-Big-Data-Analysis_R 빅분기 독학. Contribute to yimstar9/Engineer-Big-Data-Analysis_R

R 집단 간 차이 분석 연습 문제 [내부링크]

첨부파일 YSG R ch13 Ex.R 파일 다운로드 1. 평균차이검정 2. 비율차이검정 3. 비모수검정(wilcox) 4. 이항분포비율검정 1. 평균차이검정 # 1. 교육 방법에 따라 시험성적에 차이가 있는지 검정하시오 # (힌트. 두 집단 평균 차이 검정) # 1) 데이터셋: twomethod.csv # 2) 변수: method(교육방법), score(시험성적) # 3) 모델: 교육방법(명목) -> 시험성적(비율) # 4) 전처리, 결측치 제거 data <- read.csv("Part3/twomethod.csv", header=T);data #4)결측치 제거 d2 <- subset(data, !is.na(score), c(method, score));d2 #3)두 집단 분리(모델) m1 <- subset(d2,d2$method == 1);m1 m2 <- subset(d2,d2$method == 2);m2 m1score <- m1$score m2score <- m2$score #등분

통계분석기법 선택 [내부링크]

첨부파일 통계분석기법의선택.jpg 파일 다운로드

tie가 있어 정확한 p값을 계산할 수 없습니다 [내부링크]

wilcox.test를 하다보니 warning message가 거슬려서 찾아보니 wilcoxon signed rank test는 샘플값을 정렬(sort)한 다음에 중앙값(median)을 가지고 검정통계량을 계산하는데요.동일한 정렬순서의 값이 있으면 통계량과 p-value가 정확하지않을수 있다는 뜻입니다. 샘플 수가 작으면 문제가 될수 있으며, 샘플 사이즈가 크면 무시하셔도 대세에 지장은 없습니다. 출처: https://rfriend.tistory.com/130 [R, Python 분석과 프로그래밍의 친구 (by R Friend):티스토리]

SQL 서브쿼리 평가 문제 [내부링크]

--1. 다음의 두줄을 주석문 처리하시오. /*SQL 활용 임성구*/ SET AUTOCOMMIT ON; show autocommit; ----------------------------------------------------------------------- --2. EMP테이블에서 급여를 기준으로 내림차순으로 사원 정보를 조회하여 --정렬하고 급여가 같으면 다시 이름기준으로 내림차순으로 조회하시오. select * from emp order by sal desc, ename desc; ----------------------------------------------------------------------- --3. DEPT테이블의 다음 새로운 부서 정보를 저장하고 전체 레코드를 검색하시오. /* 부서정보: DEPTNO: 50 DNAME: Planning LOC: Seoul. */ insert into dept(deptno, dname, loc) values(50, 'Pla

PL/SQL 기초 평가 문제 [내부링크]

-------------------------------------------------------------------------------- --1. 다음의 메시지를 출력하시오. --(배점: 10점, 난이도: 2) SET SERVEROUTPUT ON; BEGIN DBMS_OUTPUT.PUT_LINE('SQL 응용'); DBMS_OUTPUT.PUT_LINE('임성구'); END; /* 결과 SQL 응용 임성구 */ -------------------------------------------------------------------------------- -- 2. PL/SQL의 SELECT문으로 EMP데이블에서 TURNER의 사원번호, 이름, --부서번호를 조회하시오. (배점: 20점, 난이도: 3) DECLARE SNO EMP.EMPNO%TYPE; SNAME EMP.ENAME%TYPE; DNO EMP.DEPTNO%TYPE; BEGIN SELECT EMPNO,ENAME,DEPT

R-SQL(ORACLE) 연동 기초 평가 문제 [내부링크]

--------------------------ORACLE SQL DEVELOPER-------------------------------- --1. SQL developer를 이용하여 Oracle XE DB에 scott계정으로 접속하여 아래 table 을 생성하시오. CREATE TABLE EXAM_TABLE( ID VARCHAR(50) PRIMARY KEY, PASS VARCHAR(30) NOT NULL, NAME VARCHAR(25) NOT NULL, SCORE NUMBER(3) ); INSERT INTO EXAM_TABLE VALUES('1001', '1234','Kim',90); INSERT INTO EXAM_TABLE VALUES('1002', '3456','Lee',100); INSERT INTO EXAM_TABLE VALUES('1003', '5678','Park',85); INSERT INTO EXAM_TABLE VALUES('1004', '7890','Choi',7

멤브레인 키보드 [내부링크]

https://prod.danawa.com/info/?pcode=6539164&keyword=%EC%95%84%EC%9D%B4%EB%A6%AC%EB%B2%84+t10&cate=112782 아이리버 EQwear-T10 유선 키보드 (화이트) : 다나와 가격비교 컴퓨터/노트북/조립PC>PC주요부품>키보드, 요약정보 : 키보드(일반) / 유선 / 104키 / USB / 멤브레인 / 용도: 사무용 / 멀티미디어 / 생활방수 / 키스킨 / 442mm / 151mm / 32mm / 452g prod.danawa.com 학원에서 멤브레인 키보드 좋은것을 찾았다. 키감만큼은 집에서 쓰는 한무무 보다 더 좋은듯 T-30은 무선+마우스 세트 제품인데 다음에 구매할일 있으면 이걸로 사야지

R을 이용한 통계 분석 [내부링크]

<출처> https://kilhwan.github.io/bizstat-book/ R을 이용한 통계 분석 (개정판) 경영통계분석실습의 교재를 위해 제작되었습니다. kilhwan.github.io R을 이용한 통계 분석 일러두기 I 개요 1 통계 분석이란? 1.1 기술통계 분석 1.2 추론통계 분석 1.3 통계 분석의 절차 1.4 통계 데이터에서 변수의 종류 II R 기초 2 R 설치 및 시작 2.1 R 소개 2.2 R 설치하기 2.3 RStudio 2.4 RStudio로 R 시작하기 3 R 데이터 형식과 변수 3.1 단순한 데이터 형식 3.2 숫자 연산 3.3 논리값 연산 3.4 문자열 연산 3.5 변수와 할당 3.6 함수를 이용한 연산 4 R 데이터 구조 4.1 벡터 4.2 행렬과 배열 4.3 리스트 4.4 데이터 프레임 5 R 데이터 시각화 기초 5.1 ggplot2 패키지 설치하기 5.2 ggplot2 시작하기 5.3 그래프 속성과 데이터 열 매핑하기 (aesthetic mapp

R 분산 분석(Anova) [내부링크]

첨부파일 three_sample.csv 파일 다운로드 #1단계:데이터 불러오기 data <- read.csv("Part3/three_sample.csv", header=T) head(data) data #2단계: 데이터 전처리 (NA, 이상치 제거) data <- subset(data, !is.na(score), c(method, score)) head(data) #3단계: 차트이용 outlier보기(데이터 분포 현황 분석) par(mfrow = c(1, 2)) plot(data$score) barplot(data$score) mean(data$score) #4단계: 데이터 정제(이상치 제거, 평균(14)이상 제거) length(data$score) data2 <- subset(data, score < 14) length(data2$score) #5단계: 정제된 데이터 확인 x <- data2$score par(mfrow = c(1, 1)) boxplot(x) #1단계: 세집단 su

SQL 기초 평가 문제 [내부링크]

--1. 다음의 두줄을 주석문 처리하시오. /*데이터베이스 요구사항 분석 임성구*/ --2. 상품정보(GoodsInfo)테이블 생성하시오.(SQLPLUS 또는 SQL Developer이용) SET AUTOCOMMIT ON; show autocommit; create table GoodsInfo( proCode char(5) primary key, proName varchar2(30) not null, price number(8) not null, maker varchar(25) not null); select proCode 상품코드, proName 상품명, price 가격, maker 제조사 from GoodsInfo; --3. 생성된 GoodsInfo테이블에 레코드를 추가하시오. insert into GoodsInfo values('1001','냉장고',1800000,'SM'); insert into GoodsInfo values('1002','세탁기',550000,'LN'); i

SQL(Oracle)-R 연동 환경 구축 [내부링크]

# 1. C:드라이브에 OracleTest 폴더 생성 # 2. OracleTest폴더에 ojdbc6 저장(driver) # ojdbc6 위치 # C:\oraclexe\app\oracle\product\11.2.0\server\jdbc\lib https://cran.r-project.org/bin/windows/Rtools/history.html R-tools 4.0, 3.6 설치 https://cran.r-project.org/bin/windows/Rtools/rtools40-x86_64.exe https://cran.r-project.org/bin/windows/Rtools/Rtools35.exe R-tools 설치시 R 3.5.x + 32 bit toolchain 체크 해제 ADD Path 체크 확인 ------------install.packages("RJDBC") 에러시----------- 제어판-프로그램 추가삭제에서 R for windows 3.6.3 제거후 관리자 권한으로

SQL(Oracle)-Python 연동 환경구축 [내부링크]

Oracle Instant Client Downloads https://www.oracle.com/kr/database/technologies/instant-client/downloads.html 다운로드후 C:/instantclient_21_7 폴더추가 --------Python--------- import cx_Oracle import os # 한글 지원 환경 os.putenv('NLS_LANG', '.UTF8') # Path 설정 LOCATION = r"C:/instantclient_21_3" os.environ["PATH"] = LOCATION + ";" + os.environ["PATH"] # DB 연결 connect = cx_Oracle.connect("scott", "tiger", "localhost:1521/xe") cs = connect.cursor() # 데이터 추가(insert) sql = "insert into py_table values('kang', '123

PL/SQL 기초 실습 [내부링크]

set serveroutput on; begin dbms_output.put_line('안녕 PL/SQL'); end; -- 스칼라 변수를 선언한다. declare sonno number(4); sonname varchar2(12); -- 실행문을 시작한다. begin sonno := 1001; sonname := '홍길동'; dbms_output.put_line(' 사번 이름'); dbms_output.put_line(' ---------------'); dbms_output.put_line(' ' || sonno || ' ' || sonname); -- 실행문을 종료한다. end; -- 레퍼런스 변수를 선언한다. declare sonno emp.empno%type; sonname emp.ename%type; -- 실행문을 시작한다. begin select empno, ename into sonno, sonname from emp where ename = 'SMITH'; -- 화면

SQL Oracle DB XE 11g환경 구축 [내부링크]

https://www.oracle.com/ 1.오라클 계정을 만든다 2. DB,SQL Developer 다운로드후 차례대로 설치(Java SE 8 이 없는 경우 Java SE 8 다운로드) 버전 중요하다 버전 맞게 설치한다 Orcale DB XE 11g Release 2 https://www.oracle.com/database/technologies/xe-prior-release-downloads.html Java SE 8(jdk-8u202) https://www.oracle.com/java/technologies/javase/javase8-archive-downloads.html#license-lightbox SQL Developer 21.4.2 https://download.oracle.com/otn/java/sqldeveloper/sqldeveloper-21.4.2.018.1706-no-jre.zip Oracle Java SQL 차례대로 설치해준다. 오라클 비번 : 1234 -

SQL 서브쿼리 연습 [내부링크]

출처 https://octopengj.tistory.com/73 [ Oracle] 서브쿼리, 집합연산자 서브쿼리( subQuery) SQL문 내부에 또 다른 SQL구문이 존재하는 구문 서브쿼리 유형 single row subquery: 서브쿼리에서 메인쿼리로 하나의 row 값이 리턴되는 경우. -> 연산자: =, !=, ^=, <>, >, <, >=, <= mult.. octopengj.tistory.com <문1> emp테이블에서 SCOTT사원이 받는 급여보다 많이 받는 사원을 구해서 그 사원의 사원번호, 이름, 업무, 급여순으로 출력하는 SQL? 1) SCOTT사원이 받는 급여 => 서브쿼리 select sal from emp where ename='SCOTT'; SAL ---------- 3000 2) select empno, ename, job, sal from emp where sal > 3000; => 메인쿼리 SQL> select empno, ename, job, sal

R-SQL 연동(csv,DataFrame) [내부링크]

R에서 csv파일 불러와서 SQL에 저장하기 sample <- read.csv(file="grade_csv.csv",sep=',') dbWriteTable(conn1,"grade",sample) dbWirteTable (overwrite=, append=, row.names=) overwrite=True/False 덮어쓰기 append=True/False 추가 row.names=True/False row이름 R에서 SQL 데이터 추가하기 query ="insert into grade values('1', '4', 40, 45,100)" dbSendUpdate(conn1,query) R에서 SQL 데이터 삭제하기 query ="delete from grade where ID='1'" dbSendUpdate(conn1,query) ID=1의 데이터가 삭제됨

파이썬-SQL 연동(csv,DataFrame) [내부링크]

출처 : https://greendreamtrre.tistory.com/223 Python (파이썬) DB 엔진을 활용, Pandas로 SQL을 이용해 불러오고 내보내기 1. 자신의 컴퓨터에 설치된 PostgreSQL DB에 접속하는 'engine' 만들기. from sqlalchemy import create_engine # DB 접속 엔진을 만들어준다. # PostgreSQL 데이터베이스 접속 엔진 생성. local_postgresql_url.. greendreamtrre.tistory.com CSV파일 불러와서 SQL에 저장하고 다시 불러오기 ##########https://greendreamtrre.tistory.com/223 from sqlalchemy import create_engine #sqlalchemy 패키지 설치 engine = create_engine('oracle+cx_oracle://scott2:tiger@localhost:1521/xe') df = pd.r

빅분기 실기주의점 [내부링크]

https://mabb.tistory.com/94 [빅분기] 실기 시험까지 D-1, 시험환경은 뭔가 어렵다. 안녕하세요. 삶의질을 높이기 위해 노력하는 영차영차입니다. 빅데이터분석기사 실기 시험을 위한 본인의 메모 및 공부 목적 포스팅입니다. 시험환경에서 중요한 것. print로 corr ,discribe, groupby등을 확인.. mabb.tistory.com

비지도 학습 : 비계층적 군집화(K-means와 DBSCAN) [내부링크]

http://www.sbr.ai/news/articleView.html?idxno=1479 [이재호 강좌] 오렌지3 제7강 비지도 학습 : 비계층적 군집화(K-means와 DBSCAN) - 경영자를 위한 디지털 전략 가이드, 스마투스 비즈니스 리뷰 알림: 본 강좌의 모든 예제와 오렌지 파일은 강좌 하단에 zip 파일로 제공됩니다. 강좌의 내용을 따라하시면서 활용해주세요. -스마투스비즈니스리뷰지 알림-목차1. 비계층적 군집화2. 오렌지3 실습3. 파일 다운... www.sbr.ai

ADsP 요약 정리 블로그 [내부링크]

https://blog.naver.com/liberty264/221014963458 ADsP 정리) 목록(link 연결) ADsP 정리 / 요약본 post link 연결 ADsP 시험 일정 및 안내 보러가기 (문항수, 합격기준, 응시료, ... blog.naver.com

SQL 연습 [내부링크]

DB TEST) 1) 상품 테이블로부터 모든 row와 column을 검색 SELECT * FROM PROD; 2) 회원 테이블로부터 모든 row와 column을 검색 SELECT * FROM MEMBER; 3) 상품 테이블로부터 상품코드와 상품명을 검색 SELECT PROD_ID AS 상품코드, PROD_NAME AS 상품명 FROM PROD; 4) 회원 테이블의 마일리지를 12로 나눈 값을 검색 SELECT MEM_MILEAGE/12 AS 마일리지 FROM MEMBER; 5) 상품 테이블의 상품코드, 상품명, 판매금액을 검색 (판매금액은 = 판매단가 * 55 로 계산) SELECT PROD_ID AS 상품코드, PROD_NAME AS 상품명, ROUND(PROD_PRICE * 55) AS 판매금액 FROM PROD; 6) 회원 테이블의 마일리지를 12로 나눈 값을 월평균으로 변경 검색 SELECT ROUND(MEM_MILEAGE/12) AS 월평균 FROM MEMBER ; 7) 상

Oracle Live SQL [내부링크]

Oracle Live SQL Oracle Live SQL Learn and share SQL Running on Oracle Database 19c Search Start Coding Now View Scripts and Tutorials Instructor's Guide Featured Scripts and Tutorials Introduction to SQL This tutorial provides an introduction to the Structured Query Language (SQL), learn how to create tables with primary keys, col... livesql.oracle.com

PL/SQL 프로시저 IN, OUT, IN OUT 차이 [내부링크]

--프로시저 선언 CREATE OR REPLACE PROCEDURE my_INOUT_proc ( p_var1 VARCHAR2, p_var2 OUT VARCHAR2, p_var3 IN OUT VARCHAR2 ) IS BEGIN DBMS_OUTPUT.PUT_LINE('p_var1 = ' || p_var1); DBMS_OUTPUT.PUT_LINE('p_var2 = ' || p_var2); DBMS_OUTPUT.PUT_LINE('p_var3 = ' || p_var3); p_var2 := 'A2'; p_var3 := 'B2'; END; DECLARE v_var1 VARCHAR2(100) := 'A'; v_var2 VARCHAR2(100) := 'B'; v_var3 VARCHAR2(100) := 'C'; BEGIN my_INOUT_proc(v_var1, v_var2, v_var3); DBMS_OUTPUT.PUT_LINE ('v_var2 = ' || v_var2); DBMS_OUTPUT.PUT_

ADsP 총정리영상 [내부링크]

https://youtu.be/SV7SUePZZFw

피피랙 다용도 수납선반 [내부링크]

처음엔 스피드렉 사려다가 조립하는데 너무 시끄럽고 잘 안껴진다 그래서 피피랙으로 결정

R document [내부링크]

https://www.rdocumentation.org/ Home - RDocumentation Search all 25,287 R packages on CRAN and Bioconductor Search all packages and functions www.rdocumentation.org

[통계학] 분포가 고르다 [내부링크]

여태까지 "고르다"가 골고루 퍼져있다 라고 알고있었다. 그래서 "분포가 고르다" 하면 분포가 다양하게 골고루 퍼져있어서 표준편차가 크다라고 생각했다. 사전적 의미를 찾아보면 고르다 : [여럿이 다 높낮이, 크기, 양 따위의 차이가 없이 한결같다.] 비슷한 것 끼리 모여있는 것, 분포가 평균쪽에 뭉쳐있는것. 그러므로 분포가 고르면 표준편차는 작다.

[통계학] 고등학교 수학문제 [내부링크]

첨부파일 확률과 통계_개념 쎈 (1)_221006_171446.pdf 파일 다운로드 첨부파일 확률과 통계_개념 쎈 (1)_221011_170434(수정).pdf 파일 다운로드 첨부파일 확률과 통계_개념 쎈 (1)_221011_171253(수정).pdf 파일 다운로드 15년만에 고등학교 문제를 풀어보는것 같다. 틀린문제 다 구해놓고 ab에 1/2을 안곱해줬다 답은 1/8 1.2에서 갑자기 12가 되는바람에 오답 글씨 크게 쓰자 고르다 = 평균에 뭉쳐있다. ㄷ도 옳다 a= 0.3143이라고 오타 c는 2P이다 정신 차리고 문제 잘보자 z값만 구해놓고 k를 안구했다 f(10) > f(20) 이 의미하는것은 평균 m 이 x=20보다 x=10에 더 가깝다 그러므로 m<15 f(4) < f(22)에서는 m>13 두조건에 의해 자연수 m은 14

빅분기 필기 합격 [내부링크]

가채점 결과를 오늘 16시 오픈한다는 공지가 있었다. 시험볼때도 긴장감이 하나도 없었고 최근 몇달동안 긴장이란걸 해본적이 없었는데 16시가 가까워질수록 긴장이 되서 일에 집중을 할 수 가 없었다. dataq 로그인하고 시험결과를 클릭하고 "합격예정"글씨를 보는 순간 긴장감이 싹 사라지면서 안도감이 들었다. 정말 다행이다. ADsP필기도 준비 열심히 해서 좋은결과 받고 기분좋게 빅분기실기 준비해야겠다.

갤탭s8 플러스 256GB wifi [내부링크]

폰으로 PDF파일 보면서 공부하는데 목이 너무아파서 사게됨 처음엔 레노버 P11 구매 생각이였는데 조사하다보니 점점 높아져서 갤탭으로... 아이패드 or 갤탭 고민도 했었는데 공부,필기용이니 갤탭으로 선택함

sql예제 50문제 [내부링크]

--1> 부서테이블의 모든 데이터를 출력하라. SELECT * FROM EMP --2> EMP테이블에서 각 사원의 직업, 사원번호, 이름, 입사일을 출력하라. SELECT JOB, EMPNO, ENAME, HIREDATE FROM EMP --3> EMP테이블에서 직업을 출력하되, 각 항목(ROW)가 중복되지 않게 출력하라. SELECT DISTINCT JOB FROM EMP --4> 급여가 2850 이상인 사원의 이름 및 급여를 표시하는 출력하라. SELECT ENAME, SAL FROM EMP WHERE SAL >= 2850 --5> 사원번호가 7566인 사원의 이름 및 부서번호를 표시하는 출력하라. SELECT ENAME, DEPTNO FROM EMP WHERE EMPNO=7566 --6> 급여가 1500이상 ~ 2850이하의 범위에 속하지 않는 모든 사원의 이름 및 급여를 출력하라. SELECT ENAME, SAL FROM EMP WHERE SAL NOT BETWEEN 1500

모니터암 2개 [내부링크]

모니터암 쓰고 책상이 넓어지고 모니터 각도를 내 마음대로 조절 가능해서 너무 맘에 든다.

단미 와플 기계 [내부링크]

식빵이나 크로와상 넣고 간단히 먹기 좋음

파이썬 챕터8 연습문제 [내부링크]

첨부파일 YSG_Let's Python ch_08 Exercise.py 파일 다운로드 #1번-readline함수 # word=[] # ftest = open(r'ch8_data\ch8_data\data\ftest.txt',mode='r') # docs=ftest.readlines() # docs=[line.strip('\n') for line in docs] # print('문장내용\n',docs) # print('문장수 :',len(docs)) # for i in docs: # word.extend(i.split(' ')) # print('단어내용\n',word) # print('단어수 :',len(word)) #1번-read함수 import os os.getcwd() word=[] ftest = open(r'ch8_data\ch8_data\data\ftest.txt',mode='r') docs=ftest.read().split(('\n')) print('문장내용\n',docs)

2022년 9월 25일 이사비용 [내부링크]

킴스로직스 포장이사 90만원 캐리어 에어컨 이전설치 36만원 이전비용 5만원 설치비용12만원 앵글 작업비 7만원 배관 미터당 2.4만 5미터