boyskier의 등록된 링크

 boyskier로 등록된 네이버 블로그 포스트 수는 11건입니다.

AI_LectureNote_v1 Project 소개글 [내부링크]

목차 1. project 소개 2. project 시작배경 3. project 목적 4. 특징, 차별점 5. 예시 6. 사용후기 설문조사 결과 7. github 링크 1. project 소개 강의 녹음을 입력으로 받아 스크립트와 요약을 생성하는 자동화 툴입니다. 본 프로그램의 특징은 의학용어를 전부 영어로 변환하고, 불필요한 표현, 예를 들어 '어', '음' 같은 말더듬는 부분을 자동으로 제거한다는 점입니다. 이 프로젝트는 동기의 아이디어로 시작되었으며, 2주간의 첫 시범 테스트결과 상당히 긍정적인 결과(결과는 6.에서 확인가능)를 얻었다. 코드는 공개되어 있으며(코드) 비용 및 성능 개선을 위해 여러 부분을 수정 중에 있다. 글들을 통해 해당 프로그램의 개발과정, 특징, 사용법, 사용후기 등을 소개하고자 한다. 2. ptoject 시작배경 많은 대학생들은 강의를 녹음하고, 복습에 활용한다. 이를 위해 STT(speech-to-text, 음성인식) 서비스를 사용한다. 그러나, 현재

tf.data.Dataset.from_generator [내부링크]

*정확하지 않을 수 있음... generator로 바로 학습해도 되지만, dataset class로 만들어서 학습하는 경우를 생각함. 목차 from_generator를 사용하는 이유 from_generator 사용 예시 의문점: my_dataset.cache()에 대하여 전체 코드 from_generator를 사용하는 이유 1. dataset 크기 generator를 사용하지 않고 tf.data.Dataset.from_tensor_slices((X, y)) 처럼 불러오면 한번에 모든 data를 메모리에 load하게됨. 따라서 data 용량이 큰 경우 사용이 불가능함. from_generator를 사용하면 한번에 generator가 yield하는 data만 메모리에 load하면되므로 큰 전체 dataset에 대해 학습할 수 있음 2. preprocessing load하는 과정에서 동시에 다양한 preprocessing이 가능하다 from_generator 사용 예시 1. 전처리 함수

TF vs numpy math function [내부링크]

*정확하지 않을 수 있음 과제를 하다 keras.math. ..를 사용해라는 문구를 보고 의문이 들었다. 의문: TF tensor와 numpy array는 잘 호환이 된다. 그리고 같은 계산을 하는 함수들이 존재한다.(element wise multiplication, square...) 그러면 두가지 방법 사이에는 구체적으로 어떤 차이가 있는가? https://stackoverflow.com/questions/45410644/tensorflow-vs-numpy-math-functions 위의 글에 따르면 gpu사용여부, 계산속도, precision등에서 차이가 있다. tf를 사용하는 것이 더 빠르다고 한다. 코드의 어느 부분에서 부터 혹은 어떤 상황에서 numpy, keras.math를 각각 사용하는지는 잘 모르겠다. 사실 둘 사이의 크게 유의미한 차이가 있는지도 잘 모르겠다. 아직 이걸 생각할 수준은 아닌 것 같다. tf tensor, numpy array 사이의 호환성 http

Patch based DL - why random sub-volume? [내부링크]

의문: 과제를 하던 중 왜 random하게 sub-voulme를 구하는지 궁금해졌다. 격자를 나누어 각각을 sub-volume로 하거나 convolution, sliding-window이런 느낌으로 해야 할 것 같다는 생각이 들었다. https://www.coursera.org/learn/ai-for-medical-diagnosis (C1W3 assignment) 비슷한 질문을 다른 사람들이 올려놓았었다. https://community.deeplearning.ai/t/why-do-we-need-to-get-a-random-sub-volume/364810 계산량, model이 이상한 연관성을 발견하지 않도록 more robust하게 만드는데 도움이 된다고 한다. chat-gpt에 따르면 여러가지 방법들이 있지만, 각각의 장단점이 있기 때문에 상황에 따라 적절히 골라서 사용해야 한다고 한다.

Flask로 pharyngitis detection용 간단한 백엔드 서버 만들기 - 1 [내부링크]

*아는것이 정말 없는 관계로 정확하지 않을 수 있음 (매우).. https://github.com/boyskier/pharyngitis/tree/server_V1 main.py와 test_the_server.py에서 코드를 확인할 수 있다. 목차 백엔드 서버의 목표와 기능 서버 구축 서버 사용 결론 백엔드 서버의 목표 - 사용자로 부터 이미지를 받아서 그 이미지에서 pharyngitis가 있을 확률을 다시 사용자에게 돌려줌 백엔드 서버의 자세한 기능 1. 사용자 device로 부터 image를 받는다. 2. 받은 이미지를 NN에 적합하도록 전처리함 3. 전처리한 이미지를 NN에 넣고, model의 출력값을 얻는다(0, 1사이의 sigmoid 출력값) # model은 image에서 pharyngitis가 있는지 없는지 판단하는 모델. resnet50을 바탕으로 전이학습함 4. 얻은 출력값과 받은 이미지를 다시 사용자에게 보낸다. (받은 이미지는 굳이 보낼 필요는 없지만 서버가 잘 작동

Flask로 서버만들기 - 2 : DB 활용하기 [내부링크]

매우 정확하지 않을 수 있음... https://github.com/boyskier/pharyngitis/tree/a6fad18a6287657c38f1c3566ed93a5a8567c4b7 https://github.com/boyskier/pharyngitis/blob/a6fad18a6287657c38f1c3566ed93a5a8567c4b7/main.py 목차 1. 이론 설명 2. 코드 설명 1. 이론 설명 주요 변경사항: DB를 이용해서 환자가 업로드한 사진의 관리 기존의 코드에서는 DB를 사용하지 않고 disc에 이미지를 저장하는 방법으로 data를 관리했다. 이를 DB를 이용해서 관리하도록 수정했다. 왜 DB를 사용해야 할까? (아주 잘 와닿지는 않는다...) 메타데이터의 저장(이미지뿐만아니라 환자정보, 진단 확률 등을 같이 저장해야 하므로), 동시에 여러명이 같은 정보에 접근, 수정하는 경우 DB로 하지 않으면 문제가 생길 수 있음, 큰 규모의 데이터 관리 및 탐색이 용이 등.

Flask로 서버 만들기 - 3: 회원정보, 2개의 이미지 DB, 의사용 웹 [내부링크]

아주 정확하지 않을 수 있음... main.py, utils.py가 서버를 작동시키는데 핵심적인 부분이다. https://github.com/boyskier/pharyngitis/blob/f2969b041a2f6550d36bb3fe964c8db96fdc4159/main.py https://github.com/boyskier/pharyngitis/blob/f2969b041a2f6550d36bb3fe964c8db96fdc4159/utils.py https://github.com/boyskier/pharyngitis/tree/f2969b041a2f6550d36bb3fe964c8db96fdc4159 회원 정보도 DB에 저장해야 하고, 기존에는 pharyngitis에 대한 이미지만 저장했었으나 otitis media에 대한 이미지도 저장할 수 있게 해야 한다. 마지막으로 의사가 환자의 정보를 조회할 수 있도록 웹페이지도 만들어야 한다. 목차 1. 2개의 질병(pharyngitis, otiti

**kwargs에 대해 [내부링크]

# 정확하지 않을 수 있음 목차 **kwargs가 왜 궁금해졌나? '**'가 어떤 의미인가?, 예시 **kwargs 라는 걸 예전부터 많이 봐왔었다. https://www.tensorflow.org/api_docs/python/tf/keras/layers/Conv2D conv2d layer에 대한 tf의 공식 문서이다. **kwargs가 포함되어 있는걸 확인할 수 있다. 사실 저걸 무시하고 나와 있는 argument들의 일부만 사용해도 아무 문제가 없었기에 모른 상태로 있었었다. 그러나 mysql을 사용하기 위해 필요해서 찾아 봤다. db_config = { 'user': os.getenv('DB_USER'), 'password': os.getenv('DB_PASSWORD'), 'host': os.getenv('DB_HOST'), 'database': os.getenv('DB_DATABASE') } connection = mysql.connector.connect(**db_confi

*args [내부링크]

# 정확하지 않을 수 있음 # **kwargs에 이어짐 목차 1. '*'의 의미 2. additional positional arguments 3. 왜 함수를 정의할때 *args를 사용할까? + *에 대한 추가 사실 검증 1. '*'의 의미 tf.keras.Model에 대한 공식 문서인데, **kwargs말고도 *args가 있다. *args는 어떤 의미일까 일단 *를 통해 iterable 객채(list, set, dictionary의 key, tuple string..)를 unpack 해서 list에 저장한다. first, *rest = [1, 2, 3, 4] first = 1 #type:int rest = [2, 3, 4] #type:list 함수에 pass할 수도 있다. my_list = [1, 2, 'a', ['d', 'e'], {'x':20, 'y':100}] print(my_list) >> [1, 2, 'a', ['d', 'e'], {'x': 20, 'y': 100}] pr

LLM playground #2 - openai api로 단어장에 예문 추가하는 프로그램 [내부링크]

# 정확하지 않을 수 있음 목차 시작 배경 코드설명 사용예시 1. 시작배경 공부를 하면서 모르는 영어단어들을 마주하는 경우가 많다. 그러나 전공책에서 자주 나오는 단어들이랑 일반적인 단어장에 나오든 단어들이랑은 차이가 있어서 이들을 따로 외워야 할 필요성을 느끼고, csv로 저장하고 있었다. 이들을 anki를 이용해서 외워보려고 하는데, 단어-뜻 뿐만아니라 예문을 같이 보면 좋을 것 같다는 생각이 들었다. 이를 위해 csv에 예문을 자동으로 추가해주는 코드를 만들어 보기로 했다. gpt3.5를 이용해서 이를 구현할 것이다. 전체코드는 아래 링크에서 확인가능하다. https://github.com/boyskier/english_example_sentence GitHub - boyskier/english_example_sentence: make english example sentence using openai api make english example sentence using op

LLM playground #1 [내부링크]

chat gpt 4를 유료결제 했다. chat gpt를 이용하여 20개의 주제로 가지고 놀 계획이다. 결과물들을 기록할 것이다. 코드들은 github로 공개할 계획이다. wikipedia로 부터 data를 받아와서, 무언가를 할 계획을 했다. 무엇을 할지는 정하지 못한 상태였다. 일단 시작은 했고, 코딩 과정에서 word cloud를 만들어 보겠자는 생각이 들었다. 다음은 prompt와 답변들을 요약한 것이다. [[chat]] "colab에서 실행시킬거야. wkikpedia로 부터 api,를 이용해서 data를 받아오는 코드를 작성해줘" >코드 "{'error': {'code': 'badvalue', 'info': 'Unrecognized value for parameter "action": dog.', '*': 'See https://en.wikipedia.org/w/api.php for API usage. Sub...." >수정된 코드 "{'batchcomplete': '', '