728x90
반응형

특강을 듣기 위해 오랜만에 방문한 한양대~

 

 

강의 소개

  • 일시: 2025년 4월 19일 (토) 오후 3시 ~ 5시
  • 강연자: (주) 브레인크루 이경록 대표 aka 유튜버 테디노트
  • 주제: 테디노트 이경록과 함께하는 LangChain & LangGraph 실전 워크플로우
    -생성형 AI 시대의 RAG와 에이전트 이해하기

 

후기

AI가 빠르게 변화하는 분야인 만큼, 최신 트렌드에 대해 배울 수 있어서 너무 좋았던 특강!!!

특히 저처럼 졸업자 + AI업계인이 아닌 사람한테는 이런 시간이 정말 도움이 되는 것 같습니다.

저는 사실 이번 강의에서 처음 듣는 용어가 굉장히 많았는데, 그냥 앉은 자리에서 다 이해할 수 있게 쉽게 설명해 주셨습니다. 헉... 이렇게 지식을 공유해 주셔도 되나? 싶을 정도...

단순히 몰랐던 것을 알게 된다는 면에서도 좋았지만, 이 강의를 통해 영감을 얻으셨을 분들도 많을 것 같습니다!

저도 본업하느라 AI 분야 공부를 잠시 놓고 있었는데, 덕분에 다시 공부를 시작해야겠다는 의지가 생겼습니다.

귀한 지식 공유해 주신 테디노트 님과 준비해 주신 원우회장단 분들께 감사드립니다~

 

 

https://www.youtube.com/channel/UCt2wAAXgm87ACiQnDHQEW6Q

 

테디노트 TeddyNote

데이터 분석, 머신러닝, 딥러닝, LLM 에 대한 내용을 다룹니다. 연구보다는 개발에 관심이 많습니다 🙇‍♂️ 🔥 "테디노트의 RAG 비법노트" 랭체인 강의: https://fastcampus.co.kr/data_online_teddy 💻 GitHu

www.youtube.com

https://fastcampus.co.kr/data_online_teddy?utm_source=google&utm_medium=cpc&utm_campaign=fassker^241018^239355&utm_content=%ED%85%8C%EB%94%94%EB%85%B8%ED%8A%B8&utm_term=&gad_source=1&gbraid=0AAAAADdsH6eSmk5BxoiNTRVgaqxiipyuS&gclid=Cj0KCQjwtpLABhC7ARIsALBOCVoRjv7jshDFV9-KjnbxahRi1j1Pfj4ujv0gOYD-aqCu-IjHPtpHragaAnqDEALw_wcB

 

테디노트의 RAG 비법노트 : 랭체인을 활용한 GPT부터 로컬 모델까지의 RAG 가이드 | 패스트캠퍼스

탄탄한 기본기를 위한 RAG 단계별 핵심 요소와 30가지 실습까지!

fastcampus.co.kr

 

728x90
반응형
728x90
반응형

안녕하세요. HY입니다.

 

IT 대학원 연합회 제 1대 회장 셀레나 님께서 재능기부로 무료 특강을 진행해 주셨습니다.

 

특강은 2025년 3월 29일 (토) 오전 9시~12시 까지 유튜브 라이브로 진행되었습니다.

 

 

강의 소개

  • 강의명: 현업 데이터 사이언티스트에게 배우는 파이썬 데이터 분석 입문
  • 강의내용:
    • 코랩을 이용한 데이터 분석 실습
    • 포트폴리오 작성 팁 공유
    • 실습 관련 질문부터 커리어 관련 질문까지 구글시트를 통한 다양한 질의응답

 

후기

졸업한 이후 잠깐 본업만 하며 살고 있었는데... 무료 특강 열어 주신 덕분에 간만에 코랩이랑 각종 ML 라이브러리를 써볼 수 있어 좋았습니다.ㅎㅎ

무료 강의인데도 파이썬 문법, 실습 데이터 자료, 포트폴리오 작성 템플릿까지 학습 자료를 정말 열심히 준비해 주셔서 감사했습니다.

강의도 좋았지만 특히 질의응답 해 주신게... 몇십개나 되는 질문을 다 정성스럽게 답해 주셔서 저도 같이 보면서 정말 도움이 많이 되었습니다. 앞으로의 커리어에도 굉장히 도움이 되는 시간이었다고 생각합니다.

 

여담으로... 특강 참여자 중 추첨하여 IT 전문서적을 보내 주셨는데,

 

갑자기 카톡 태그 알람이 와서 보니 제가 당첨자 명단에 있었습니다!

감사합니다......귀중하게 잘 읽겠습니다. ㅠㅠㅠㅠㅠ

다 읽고 후기도 올려보도록 하겠습니다.

 

 

+

특강 진행해 주신 셀레나님은 클래스101에서도 강의 진행중이십니다!

데이터 분석 분야에 관심 있으신 분들은 참고하시면 좋을 것 같습니다.

https://class101.net/ko/pages/selena-python-data-67bfba7f18fa00f3d491060a

728x90
반응형
728x90
반응형

안녕하세요. HY입니다!

 

한양대학교 인공지능융합대학원 특수대학원을 졸업하고 벌써 1년이 지났는데요,

비록 졸업했지만 졸업 후 원우회 활동을 통해 학우분들과의 인연을 이어나가고 있습니다.

 

지난 학기는 개인사정으로 좀 쉬었는데 (ㅎㅎ)

이번 학기부터 다시 원우회 활동에 참여하며 참여한 행사에 대해 기록하려고 합니다.

(특강 같은 경우 내용에 대해 자세히는 기록하지 못하는 점 양해 부탁드립니다ㅠㅠ)

원우회장단 분들이 정말 열심히 행사 준비해주시고 있으니

신입생들 중 원우회 가입이 망설여지시는 분들은 꼭 참고하셨으면 좋겠습니다!

 

※제가 기록하는 행사 외에도 재학생분들은 더 많은 행사 참가하실 수 있습니다!!

 

 

한양대학교 인공지능융합대학원 원우회

한양대학교 인공지능융합대학원에서 원우회비를 납부하시면 원우회에서 주최하는 활동에 참여할 수 있습니다.

기본적으로 원우회 단톡방에서 학교생활 관련 많은 정보들 얻어 가실 수 있으며, 다양한 학술행사와 네트워킹 행사에 참여 가능합니다. (개강파티/논문세미나/학술행사/MT 등...)

그리고 매 학기 스터디 개설 신청을 받아서 원하는 주제로 다른 학우분과 함께 공부할 수도 있습니다.

그냥 학교 수업만 듣는 것이 아니라, 더 깊은 배움과 다양한 시각을 얻고 싶은 분들께 추천드리고 싶습니다.

 

+ 추가로, 한양대 내에서의 모임 뿐만 아니라 다른 IT 특수대학원과의 연합 모임도 존재합니다.

 

IT 대학원 연합회

한양대학교 인공지능융합대학원을 포함해, 다른 학교 IT 특수대학원 분들과 교류할 수 있는 연합회입니다.

연합회 내에서 각종 동아리 활동에 참여하실 수 있으며, 정기적으로 [학술세미나/네트워킹]으로 이뤄진 연합행사를 개최 중입니다.

IT 대학원 연합회는 원우회 가입 여부와 상관없이 참여하실 수 있지만, 원우회에 가입하셨을 경우 참가비 없이 연합행사에 참여 가능합니다.

그러니까 학과행사에 관심이 많으신 분들은 원우회에 가입하시면 일석이조겠죠ㅎㅎ

 

그럼 2025년도 잘 부탁드립니다.

이전에 참여한 활동도 시간이 난다면 기록해보도록 하겠습니다~

728x90
반응형
728x90
반응형

안녕하세요! AI Cruise의 HY입니다.

 

AI Cruise 멤버 HY는 현재 2학기까지 잘 마무리하고 여름방학을 보내고 있습니다.

2학기 수강후기를 작성하기 전에 1학기에 수강했던 AI프로그래밍 수강후기를 전해 드리려고 합니다.

 

 

AI프로그래밍 수업 형식

한양대학교 인공지능융합대학원은 5주, 10주, 15주짜리 강의를 다양하게 운영하고 있는데요,

이번에 수강을 완료한 AI프로그래밍 과목은 15주동안 진행되는 수업이었습니다.

 

그렇다면 AI프로그래밍 수업에서 어떤 것들을 배웠는지? 대략적으로 요약해서 정리해 보겠습니다.

 

주 사용 교재: 혼자 공부하는 머신러닝+딥러닝

 

 

AI프로그래밍 수업 내용

<1주차>

오리엔테이션

  • 아인슈타인 퀴즈

 

<2주차>

  • 기본적인 linear regression 모델 구현 (혈중지방량 측정)
  • 기본적인 rogistic regression 모델 구현 (mnist 손글씨 분류)
  • 선형 대수 기본 개념

 

<3주차>

  • K-NN 알고리즘 (생선 분류 문제)
  • K-means
  • 통계와 머신러닝의 차이점
  • 훈련 데이터와 테스트 데이터
  • 데이터 전처리

 

<4주차>

  • Data Exploration
    • CRISP-DM
    • The Data Quality Report
    • Histogram
    • Covariance & Correlation
  • Decision Tree
    • 분류 트리
    • 회귀 트리
    • Gini Index
    • Entropy
    • Information Gain

 

<5주차>

  • Decision Tree 모델 구현 실습
  • 교차 검증과 그리드 서치
  • 트리의 앙상블

 

<6주차>

휴강

 

<7주차>

  • Similarity-based Learning
    • k-NN
    • Euclidean distance
    • Manhattan distance
    • Minkowski distance

 

<8주차>

  • Naive Bayes Classifier
    • Conditional probability
    • Bayes' Theorem
    • Gaussian naive bayes classifier
    • Multinomial naive bayes classifier
    • Bernoulli naive bayes classifier

 

<9주차>

  • Regression
    • Hypothesis
    • Cost Function
    • Logistic Hypothesis
    • Sigmoid
    • Logistic regression
    • Softmax
    • Logistic cost vs Cross-entropy

 

<10주차>

휴강

 

<11주차>

  • 군집 알고리즘
  • K-Means
  • 주성분 분석(PCA)

 

<12주차>

  • Perceptron
  • Deep Learning
  • Backpropagation

 

<13주차>

  • CNN을 사용한 이미지 분류

 

<14주차>

  • CNN의 시각화
  • RNN으로 IMDB 리뷰 분류하기
  • LSTM
  • GRU

 

<15주차>

14주차 이어서

 

<16주차>

기말고사

 

<과제>

  • 영화흥행예측
  • VGG-16 모델을 사용한 학습

 

 

AI프로그래밍 강의평

 

총평: 얼마 안되는 실습 수업 중 하나로, 그만한 가치가 있었음

 

난이도:

-이론 파트도 있으나 코드리뷰 위주로 수업이 돌아가므로 파이썬 지식이 있으면 좋음

-직접 모델을 구현해 오는 실습 과제가 존재함

 

수업의 퀄리티:

-설명을 쉽고 직관적으로 잘 해주심

-유일하게 직접 실습을 해 볼 수 있는 수업이라 이론 이상의 많은 것을 얻어갈 수 있음

 

※참고: 2023년 후기에는 해당 강의 개설 여부 및 수업 내용에 변동이 있을 수 있습니다. 

 

 

본 대학원에 재학중이시거나, 관심이 있으신 분에게 도움이 되길 바라며 이만 마치겠습니다.

728x90
반응형
728x90
반응형

안녕하세요! AI Cruise의 HY입니다.

 

AI Cruise는 현재 겨울 방학을 맞이하여 알찬 매일을 보내고 있습니다.

하반기에는 시험이 3개가 몰려 있어 힘들기도 했지만 어떻게든 잘 마무리했습니다.

그럼 AI를 위한 뇌신경과학 수강후기 시작하겠습니다.

 

 

AI를 위한 뇌신경과학 수업 형식

한양대학교 인공지능융합대학원은 5주, 10주, 15주짜리 강의를 다양하게 운영하고 있는데요,

이번에 수강을 완료한 AI를 위한 뇌신경과학 과목은 5주동안 진행되는 수업이었습니다.

 

구체적으로는

1~4주차 - 실시간 화상 강의

5주차 - 기말고사 (대면) + 추가 강의

형식으로 진행되었습니다.

 

그렇다면 AI를 위한 뇌신경과학 수업에서 어떤 것들을 배웠는지? 대략적으로 요약해서 정리해 보겠습니다.

 

 

AI를 위한 뇌신경과학 수업 내용

<1주차>

1강

  • 뇌의 동작과 닮은 AI 알고리즘의 예
  • 뇌의 실제 동작과 관련 없이 발전한 AI의 현 상황
  • AI분야에서 실제 뇌에서 배울 수 있는 것들
  • Spiking Neural Network
  • 인간 뇌에 관심을 가지는 이유: 높은 에너지 효율
  • 인간의 뇌가 효율적인 이유

2강

  • 인간의 뇌에서 무엇을 모방할 것인가?
  • 편도체의 동작 기전
  • 인간의 시각 처리 vs CNN

 

<2주차>

2강(1주차 이어서)

  • 인간의 뇌에서 배울 수 있는 것들: Energy Efficiency, One-shot Learning, Continual Learning
  • 폰 노이만 아키텍처 vs 뉴로모픽 아키텍처
  • Methods to reduce the power consumption: Quantization, Pruning, Knowledge distillation
  • 인간의 뇌를 모방한 Spiking Neural Network
  • SNN의 장단점
  • SNN의 Structure

2강-2

  • Leaky Integrate and Fire Model
  • Single Exponential Model
  • Double Exponential Model
  • Encoder: Rate coding, Time-to-first-spike coding

 

<3주차>

2강-2(2주차 이어서)

  • SNN을 학습시키는 방법: Long-Term Potentiation, Long-Term Despression, Spike-Time-Dependent Plasticity
  • Anti-Hebbian aSTDP
  • Probabilistic STDP
  • SNN의 문제점: 기존보다 낮은 성능, 학습의 어려움, 주로 영상 분류에만 적용함

3강

  • 자연신경망과 인공신경망의 차이
  • AI에 새롭게 도입될 가능성이 있는 뇌과학
    • Distributed Representations, Cortical Plasticity, 신경 가소성
    • 뇌의 보호 메커니즘
    • 그물망 이론 vs 뉴런 이론
    • 전기적 시냅스 vs 화학적 시냅스
    • 발산과 수렴
    • 신경회로는 계층적 회로, 국소회로, 단일출처확산회로 세 가지 유형이 있음
    • 우리 뇌는 용불용설을 따름
    • 신경선택론: 넘침, 쓸모, 제거
    • 점화 효과: 연습을 통해 약한 단서로 대상 파악 가능

 

<4주차>

특강

  • 최근 인공지능에 우려되는 점
  • 뇌의 무엇을 따라해야 하는가?
  • 뇌의 기능은 어떻게 발생하는가?
  • 자발적으로 발생하는 뇌 기능들
  • 인공지능이 가야 할 길

3강(3주차 이어서)

  • AI를 위한 뇌신경과학 전망: 뇌 네트워크 모델, 레저버 컴퓨팅, Dynamic Reorganization of Brain Modules

추가 특강

  • 뇌파 데이터 적용의 어려움: Nonstationary characteristic, Lack of data
  • CNN을 이용한 뇌파 데이터 분류 시도
  • 데이터 증강 기술들

 

 

AI를 위한 뇌신경과학 강의평

 

총평: 인공지능 기술이 나아가야 할 방향에 대해 깊게 생각할 수 있었던 강의, 뇌과학 분야에 관심을 갖게 해준 강의

 

난이도:

-교양에 가까운 강의이므로 어렵지 않음

-하지만 수업의 질이 낮은 것은 아님

 

수업의 퀄리티:

-교수님이 무척 열정이 있으심

-뇌과학에 관심이 없던 사람이라도 흥미로운 내용으로 구성

-특강 등으로 더 폭넓은 지식을 얻을 수 있음

 

이런 사람에게 추천:

-AI와 뇌과학의 접목에 관심이 있는 사람

-최근의 인공지능 트렌드와는 다른 관점의 인공지능 기술을 알고 싶은 사람

 

 

본 대학원에 재학중이시거나, 관심이 있으신 분에게 도움이 되길 바라며 이만 마치겠습니다.

728x90
반응형
728x90
반응형

안녕하세요! AI Cruise의 HY입니다.

 

AI Cruise는 현재 겨울 방학을 맞이하여 알찬 매일을 보내고 있습니다.

하반기에는 시험이 3개가 몰려 있어 힘들기도 했지만 어떻게든 잘 마무리했습니다.

그럼 자연어처리 수강후기 시작하겠습니다.

 

 

자연어처리 수업 형식

한양대학교 인공지능융합대학원은 5주, 10주, 15주짜리 강의를 다양하게 운영하고 있는데요,

이번에 수강을 완료한 자연어처리 과목은 5주동안 진행되는 수업이었습니다.

 

구체적으로는

1~4주차 - 실시간 화상 강의

5주차 - 기말고사 (대면)

형식으로 진행되었습니다.

 

그렇다면 자연어처리 수업에서 어떤 것들을 배웠는지? 대략적으로 요약해서 정리해 보겠습니다.

 

 

자연어처리 수업 내용

<1주차>

Introduction, word vectors, language models, recurrent neural network

  • 언어의 기본적인 단위인 단어를 어떻게 컴퓨터가 이해할 수 있게 할지
  • Word Vectors: word를 표현하기 위한 수치 혹은 매개체
  • Word2vec: 중심 단어와 주변에 있는 단어가 유사도가 높아지도록 학습하는 방법론
  • Language Modeling: pretraining에 제일 많이 쓰는 task, 문장의 다음 단어를 맞추는 task를 통해 언어학적 개념 취득
  • RNN: 이전까지 처리한 자기 자신의 결과에 새로운 입력 단어를 조합해서 새로운 상태를 만들고 이것을 반복하는 식으로 연산
  • LSTM: context가 길어지면 앞에 나왔던 것을 잊어버리는(기울기 소실) 기초 RNN의 문제 보완
  • GRU
  • Bidirection RNNs, Multi-layer RNNs

 

<2주차>

MT, Seq2seq, Attention, Transformers, Pretraining, and Large Language Models

  • Machine Translation
  • Seq2seq: 일종의 Conditional Language Model
  • Attention: Seq2seq의 bottleneck problem을 해결하기 위한 매커니즘, 디코더에서 단어를 생성할 때 인코더의 어떤 정보가 필요한지(어디에 attention하고 싶은지) 계산
  • Self-attention: 디코더에 정보를 주는 것이 아닌 스스로 입력에 대한 정보를 잘 처리하는 방법의 일환
  • Transformer: Attention만 따로 떼와서 만든 새로운 아키텍처
  • Multi-headed attention: Transformer에서 사용하는 테크닉, 여러 관점을 적용하여 Attention 계산
  • Residual connections, Layer normalization, Scaled dot product
  • GPT, BERT

 

<3주차>

Question Answering and Language Generation

  • Reading comprehension: question과 대응되는 passage가 존재하며 답변이 무조건 passage안에 있음
  • BiDAF: Context-to-query, Query-to-context 양방향으로 Attention score 계산
  • Open-domain question answering: passage 없이 NN이 스스로 탐색
  • Retriever-reader framework: 질문이 주어졌을 때 질문과 연관이 있을 것 같은 document를 찾고(Retriever) 그것을 이용해서 적절한 정답을 찾는다.(Reader)
  • Language Generation: 단어를 생성할 때 가지고 있는 단어 중 각각의 확률이 어떻게 되는지 확률 분포를 계산
  • 디코딩 알고리즘: Greedy methods, Beam search, Top-k sampling, Top-p sampling
  • 모델 평가 방법: Content Overlap Metrics, Model-based Metrics, Human evaluations

 

<4주차>

Model Analysis and Explanation, The Future of NLP + Deep Learning

  • 모델이 사람처럼 이해해서 문제를 푸는 것인지, 나름의 방식이 있는지 분석
  • Saliency maps: 어떠한 input이 이러한 결과를 이끌었는지 설명하기 위해 사용, 예측할 때 가장 중요했던 키워드 표시
  • Probing: 분석하려는 pretrained 모델을 freeze하고 여기에 아주 간단한 FNN을 얹어 문제를 잘 푸는 지 테스트
  • 그 외 여러가지 분석 방법론
  • GPT-3의 특징: In-Context Learning

 

 

자연어처리 강의평

 

총평: 짧은 시간 동안 최대한 Trendy한 내용을 배울 수 있었던 강의

 

난이도:

-어렵지는 않으나 많은 내용을 빠르게 배우는 강의이므로 어느 정도는 예습을 하는 편이 수업을 따라가기 용이할 듯

-수업 내용에 비해 시험은 어렵지 않지만 답안을 정확히 잘 작성해야 좋은 학점을 받을 수 있을 것으로 보임

-매주 퀴즈 존재

 

수업의 퀄리티:

-각 강의 자료의 양이 많고 읽기에 깔끔함

-시중에 나온 도서로는 이해하기 어려웠던 내용도 잘 풀어서 설명해 주심

-4주 학습이므로 수학적인 내용 등 깊게는 들어가지 않음

-전반적으로 NLP분야를 훑어보기 좋았던 수업

 

이런 사람에게 추천:

-NLP 분야에 관심이 있는 입문자

 

 

본 대학원에 재학중이시거나, 관심이 있으신 분에게 도움이 되길 바라며 이만 마치겠습니다.

728x90
반응형
728x90
반응형

안녕하세요! AI Cruise의 HY입니다.

 

11월 3일 기말고사를 마지막으로 딥러닝개론 수업이 끝났습니다.

학우분들 모두 수고 많으셨습니다.

 

 

딥러닝개론 수업 형식

한양대학교 인공지능융합대학원은 5주, 10주, 15주짜리 강의를 다양하게 운영하고 있는데요,

이번에 수강을 완료한 딥러닝개론 과목은 10주동안 진행되는 수업이었습니다.

 

구체적으로는

1주차 - 대면 강의

2~9주차 - 실시간 화상 강의

10주차 - 기말고사 (대면)

형식으로 진행되었습니다.

 

그렇다면 딥러닝개론 수업에서 어떤 것들을 배웠는지? 대략적으로 요약해서 정리해 보겠습니다.

 

 

딥러닝개론 수업 내용

<1주차>

인공지능 기본 개념, 인공지능 발전 역사, 딥러닝 개념

Logistic regression

선형 변환, 비선형 변환, Loss function, Gradient descent

 

<2주차>

1주차 내용 이어서

딥러닝 학습 목표

Back propagation

한계: Local minima

 

Shallow Neural Network

Neural Network의 기본 구조, layer, parameter, feature 개념

Activation function 종류, 장단점

 

<3주차>

Deep Neural Network

Intuition about deep representation

Circuit theory and deep learning

hyperparameter

 

Activation function 종류, 장단점 확장

 

딥러닝 학습 시의 dataset 분류, Train/Dev/Test Sets

성능 검증 기법 K-Fold Cross-Validation

Bias and Variance 개념

Overfitting을 줄이기 위한 Regularization

 

<4주차>

3주자 내용 이어서

Regularization for Logistic Regression

그 외 overfitting을 막기 위한 기법들

  • Dropout Regularization
  • Data augmentation
  • Early stopping

 

Batch Normalization

mini batch 개념, 효과

Batch Norm 수식

 

<5주차>

4주차 내용 이어서

Batch Normalization

 

Convolutional filter - Point Spread Function(PSF)

Convolution vs Correlation

Conv사용 예 - Denoising, Edge detection, Sharpening

Convolution의 properties

Padding

 

<6주차>

Convolution Neural Networks(CNN)

2D Convolution

1D Convolution

Computer Vision Problems - Image Classification, Face detection, Object detection

이미지에서 MLP vs CNN

Padding 사용 이유, 사이즈 계산식

Strided convolution

CNN의 특징 - Local connectivity, Weight sharing

CNN with multiple input channels

CNN with multiple output maps

Pooling layer - Max pooling, Average pooling

 

<7주차>

Case Studies and Practical Advices for using ConvNets

  • LeNet-5
  • AlexNet
  • ZFNet
  • VGG - receptive field
  • GoogLeNet - 1x1 conv bottleneck layers
  • ResNet - skip connection, residual block

 

<8주차>

Supervised learning vs Unsupervised learning

 

Generative Models - GAN

GAN의 학습 목표, 학습 원리

Mode collapse problem

Evaluating Generative models - IS, FID

 

<9주차>

Applications of GANs

  • Deep Convolutional GAN(DCGAN) - interpolation
  • Laplacian Pyramid GAN
  • Conditional GAN
  • Pix2Pix
  • Cycle GAN
  • Super-Resolution GAN(SRGAN)
  • StyleCAN
  • GLEAN

 

 

딥러닝개론 강의평

 

총평: 기본에 충실했던 강의

 

난이도:

-가장 기초가 되는 수업이기 때문에 처음 배우는 사람도 문제 없이 따라갈 수 있다.

-쉽게 풀어서 설명하려는 교수님의 노력이 보임

 

수업의 퀄리티:

-무난함

-매주 이전 강의에서 배운 내용에 대해 퀴즈를 보는데, 중요 개념을 한 번 더 복습하는 효과가 있어 좋았음

-있을 건 다 있는 느낌이지만 수식 증명 등 더 깊게 공부하고 싶은 사람은 개인적으로 공부해야 할 듯

-같은 전공필수 과목인 AI프로그래밍간의 시너지가 좋음

-이미지 처리 위주로 구성되어 있음

 

 

본 대학원에 재학중이시거나, 관심이 있으신 분에게 도움이 되길 바라며 이만 마치겠습니다.

728x90
반응형
728x90
반응형

안녕하세요! AI Cruise의 HY입니다.

 

10월 7일 기말고사를 마지막으로 드디어 한양대학교 인공지능융합대학원에서의 첫 수업이 끝났습니다!

어쩌다 보니 후기 작성이 조금 늦어졌네요.

 

 

음성인식 수업 형식

한양대학교 인공지능융합대학원은 5주, 10주, 15주짜리 강의를 다양하게 운영하고 있는데요,

이번에 수강을 완료한 음성인식 과목은 5주동안 진행되는 수업이었습니다.

 

구체적으로는

1주차 - 실시간 화상 강의

2주차 - 동영상 강의

3주차 - 동영상 강의

4주차 - 실시간 화상 강의 (강의는 사전 녹화 영상으로 진행하며 실시간으로 질문 등 받으심)

5주차 - 기말고사 (대면)

형식으로 진행되었습니다.

 

그렇다면 음성인식 수업에서 어떤 것들을 배웠는지? 대략적으로 요약해서 정리해 보겠습니다.

 

 

음성인식 수업 내용

<1주차>

Application Areas에서의 Speech Signal Processing 관련 기술, 절차 등에 관한 개념

(Speech Coding, Speech Enhancement, Speech Synthesis, Speech Recognition, Speech Pathology)

 

Speech Production에서 Hearing까지의 과정, 이 과정에서의 3대 이펙트

(Lombard Effect, Cocktail Party Effect, Masking Effect)

 

Speech Production에서 Articulartors의 동작

 

<2주차>

Conventional 음성인식 과정

End-to-End 음성인식 과정 (CTC, seq2seq, transformer 기반 seq2seq)

 

음성인식을 위한 전처리 과정 (Conv-tasnet)

 

End-to-End 음성인식에 사용하는 toolkit

 

<3주차>

음성인식 기술 동향

(인공지능 음성비서 시스템 중심)

 

<4주차>

음성인식을 위한 Language model의 특징 및 활용

Statistical language model의 구조 (n-gram)

Neural network language model의 구조 (FNNLM, RNN 기반 LM, Transformer 기반 LM)

 

언어모델의 정량적 성능 평가 방법 (Perplexity)

 

Hybrid ASR에 LM을 적용하는 방법론

E2E ASR에 LM을 적용하는 방법론

 

 

그 외 강의에서 다루진 않았지만, 감정인식을 주제로 한 추가적인 학습자료 배포해 주심

 

 

음성인식 강의평

 

총평: 음성의 생성 과정부터 차근차근 배우는 개념 위주의 수업, 음성인식을 처음 배운다면 얻어가는 지식이 꽤 많다.

 

난이도:

-개론 수업과 비교하면 높은 편(기반 지식이 전혀 없을 경우)

-수식에 대해 너무 deep하게 들어가지는 않으며 중요 개념을 잘 풀어서 설명해 주시기 때문에 이해에는 문제 없음

-반대로 깊게 공부하고 싶은 사람들에겐 아쉬울 수 있음(5주 수업들이 다 같은 문제점을 공유할듯)

-신호 및 시스템, 디지털신호처리에 대해 공부하고 들을 것을 권장하심

 

수업의 퀄리티:

-강의자료의 퀄리티는 높다고 생각함. 어떤 강의자료는 무려 50페이지에 육박하기도

-전체적으로 녹화강의 위주로 진행되었는데 이에 대해선 호불호 갈릴 듯함

-4주의 짧은 수업이었지만 사람의 신체에서 발생하는 음성 생성 과정부터 최근 기술 동향까지 폭넓게 배울 수 있었음

-개념 위주의 수업이라 실습 등은 하지 않음.

 

이런 사람에게 추천:

-음성인식에 관심이 있지만 공부해 본 적이 없는 사람

-자연어 처리 분야에도 관심이 있는 사람(음성인식 특성상 겹치는 내용이 존재)

 

 

본 대학원에 재학중이시거나, 관심이 있으신 분에게 도움이 되길 바라며 이만 마치겠습니다.

728x90
반응형
728x90
반응형

벌써 학기가 시작된지 한 달여가 흘렀습니다.
2022년 5월에 준비했던 한양대 인공지능융합대학원 면접 합격과 관련한 글을 기록해보려고 합니다.
이번글은 저의 백그라운드 소개, 서류준비, 면접질문과 답변, 학비에 대한 생각으로 구성했습니다.

1. AI크루즈의 멤버 MS 소개

우선 저의 백그라운드를 알려드리자면
학부에서 소프트웨어공학과를 전공하면서 웹서버(백엔드 시스템 구축) 프로젝트를 3개 완수하였고,
현재는 공공기관의 전산직으로 정보화 사업을 추진하고 있습니다.
면접을 보았던 2022년 5월 기준으로, 직장 경력은 만 3년 5개월이었습니다.
2021년 3월부터 인공지능 스터디를 하면서 컴퓨터 비전 분야에 관심을 가지게 되었고 연구를 하고 싶어서 대학원 진학을 결심하게 되었습니다.

학부 졸업 프로젝트를 같이 했던 선배와 2021년 3월 17일 인공지능으로 스터디 주제를 변경하며
본격적으로 인공지능을 공부하기 시작했습니다.

1년 반동안 공부한 것들을 간략히 나열해보자면,
네이버 edwith에서 제공하는 카이스트 문일철 교수의 머신러닝 개론,
아카데미칸에서 미적분학, 벡터, 선형대수학 강의를 들었고,
코세라에서 앤드류응 교수의 머신러닝 개론을 통해 역전파, 경사하강법 알고리즘, 선형회귀 함수와 로지스틱 함수 모델 등을 익혔습니다.

그래서 코로나로 지나간 1년 2개월 사이 그래도 하나 남은 것이 있다면,
인공지능 기술에 대해 많은 것을 알게 되었다는 점입니다.
웹개발이 소프트웨어의 전부라고 생각했던 과거에서 머신러닝과 딥러닝이라는 새로운 도메인에서 난생 처음보는 단어들을 보고 탐구해보는 시간이었습니다. 처음에는 동작방식에 충격을 받았고 신기해서 자꾸 알아가다 보니 대학원까지 관심을 가지게 되었습니다.

2. 서류 준비

<제출서류>

  1. 입학원서 : (주)유웨이어플라이)에서 접수 후 출력, 전형료 수수료 포함 70,000원
  2. 졸업증명서 또는 졸업예정증명서 원본 1부.
  3. 성적증명서 원본 1부.
  4. 학업계획서 1부.
  5. 재직증명서 또는 경력증명서 1부.
  6. 상장, 자격증 사본(해당자에 한함) 1부.

추가서류 제출 등 자세한 내용은 공식 홈페이지를 참조하시기 바랍니다.
(https://gsai.hanyang.ac.kr/front/admissionguide/application/recruitment)

여기서 대부분은 졸업학교와 회사에서 발급하면 되는 서류이지만,
4번 학업 계획서는 양식을 다운받아 작성해야합니다.
학업계획서라는 것을 한 번도 써보지 않아서 이것 자체가 큰 도전이었습니다.
자기소개서와는 어떻게 다른 것인지 한참을 찾아보았고, 솔직하게 작성하였습니다.

제가 담은 항목과 작성 내용을 요약하자면 아래와 같습니다.
- 자기소개(재직 및 경험사항) : 소프트웨어학부 프로젝트 경험, 현재 재직중인 회사와 직무, 관심분야인 컴퓨터 비전 언급
- 진학동기 : 인공지능 연구자로 전향 희망, 인공지능 스터디에서 배웠던 내용을 언급하며 대학원의 필요성에 대한 어필
- 연구계획 : 딥러닝 기반의 컴퓨터 비전 기술 연구에 도움이 되는 한양대 교과목 강의를 연결지어 계획을 서술함

3. 면접 질문

  1. 사용하는 딥러닝 프레임워크 ? 파이토치를 사용해봤고 책의 예제를 구현해봤습니다.
  2. 경사하강법이란 ? : 경사하강법은 최적화 알고리즘으로 SGD라고 하는 확률적 그래디언트 디센트가 있고, 손실 함수를 최소화하는 방향으로 최적화하는 알고리즘 입니다.
  3. 손실함수 MSE와 엔트로피의 차이점 설명 : 평균제곱오차인 MSE는 linear regression에서 회귀 문제를 풀 때 사용하고, 크로스엔트로피 손실함수는 분류 문제에서 사용하면 더 좋은 결과를 얻을 수 있는 것으로 알고 있습니다.
  4. 현재 업무와 인공지능의 연관성이 떨어져보이는데 전향하려고 하는 것인지? : 네, 현재 업무가 인공지능과 상관이 없어 연구자로 전향하기 위해 대학원 진학을 결심하게 되었습니다.
  5. 학부때 인공지능 과목은 안들었는지? : 인공지능에 대한 관심은 1년 반 전에 생기게 되어 학부때는 관련수업을 듣지 못했고, 스터디를 통해 온라인 강의를 많이 들었습니다.

면접 준비는 구글에서 인공지능 관련 면접 질문을 긁어모아 아래처럼 답변을 다시 정리해 포스팅하였습니다.

 

인공지능 대학원 면접 준비

가. 머신러닝/딥러닝 1. Cross Validation 이란? 더보기 - 교차검증 - trian set을 train set과 validation set으로 분리한 뒤, validation set을 사용해 검증하는 방식이다. - 모든 데이터셋을 훈련에 활용해 정..

aicruise.tistory.com

면접에 나오진 않았지만 컴퓨터사이언스에 대한 질문 대비를 위해 공부했던 '한 권으로 그리는 컴퓨터 과학 로드맵' 책을 보기도 했습니다.

 

컴퓨터사이언스(CS) 복습

6월 6일(월) ~ 6월 10일(금) 복습이 필요했던 주간이라 사진을 찍어둔 게 알고리즘, 선형대수 같은 컴퓨터...

blog.naver.com

4. 면접질문에 답변할 때 가장 중점을 두었던 부분

관련 개념의 대표적인 예들을 약어와 풀네임을 함께 언급해서 카테고리와 내용을 파악하고 있다는 인상을 줌과 동시에 단순히 개념을 외우는 것이 아니라 다른 것들과 비교 분석하면서 도출해낸 깊이 있는 답변을 전달하고자 했습니다.
질문에 대한 적절한 답을 하면 점수를 받을 것이라고 생각했고
5가지 질문에 '짧지만 핵심을 담았기에 합격을 기대해볼 수 있지 않을까'
막연한 희망을 품고 면접을 마무리 했습니다.
그도 그럴것이,, 면접장의 순번을 보니 100명 남짓한 면접자들이 대기하고 있었고,
합격자는 전기,후기를 모두 포함해 40명이라고 하니 ~20명 전후가 뽑히지 않을까 했는데
전해듣기론 경쟁률로만 따지면 6대1정도 되는 것 같습니다.
또 생각보다 인공지능에 대한 관심이 높다보니 특수대학원임에도 면접자들의 나이대도 젊었습니다.

5.면접의 수준

저는 굉장히 General한 개념에 대한 질문을 받아서 막힘없이 대답할 수 있었는데
같이 지원했던 선배는 자연어 처리의 최신기술인 트랜스포머와 GPT에 관한 질문까지 받아 답하기 어려웠다고 하니
질문 수준의 스펙트럼이 너무 넓은 거 아닌가하는 생각이 들어 평가 기준이 무엇일지 궁금했습니다.

6. 합격 여부

저와 선배 모두 합격했습니다.

그래서 합격자가 많은 것인가!! 아무나 다 뽑는 거 아니야?? 했는데 소수더군요.
아무래도 학문을 공부하고자 하는 마음이 어필이 많이 됐던 거 같습니다.

 

한달이 지난 지금, 2022년에 했던 일 중에 가장 잘한 일을 꼽자면
대학원에 입학원서를 제출했던 일이라고 생각합니다.

책과 영어 강의로 많이 흡수했다고 생각했는데, 생각보다 중요한 것을 중요하지 않게 생각하고 넘어간 개념들이 꽤 많았습니다.
교수님들의 강의를 통해 중요한 부분을 다시 한 번 파악할 수 있게 되어 참 다행이라는 생각이 듭니다.

나름의 방황을 하고 있던 5월의 저에게
한양대 대학원 원우회에서 5월 15일(일)에 입학 설명회를 진행한다며 소개해주었던
AI크루즈의 멤버 HY에게 감사의 마음을 전하며 글을 마무리합니다.

HY님의 합격수기는 아래 링크를 통해 보실 수 있습니다.
https://aicruise.tistory.com/33

 

[인공지능 대학원/특수대학원]한양대학교 인공지능융합대학원 인공지능시스템학과 합격 후기

https://gsai.hanyang.ac.kr/ 한양대 인공지능융합대학원 새로운 도전, 인공지능융합 gsai.hanyang.ac.kr 안녕하세요, 인공지능 스터디 그룹 AI Cruise 멤버 HY입니다! 저희는 올해 9월부터 인공지능 특수대학원

aicruise.tistory.com

 

728x90
반응형
728x90
반응형

https://itmba.ssu.ac.kr/

 

정보과학대학원 – 숭실대학교 정보과학대학원입니다.

Welcome to Graduate School of Information Science

itmba.ssu.ac.kr

 

안녕하세요, 인공지능 스터디 그룹 AI Cruise 멤버 HY입니다!

저희는 올해 9월부터 인공지능 특수대학원에 재학중인데요,

조금 시간이 지났지만 어떤 학교들을 준비했으며 면접 경험은 어땠는지에 대해 정리해보려고 합니다.

 

세번째로 면접을 본 곳은 숭실대학교 정보과학대학원 인공지능학과입니다.

대학교 사이트를 보았을 때 AI 인재 육성에 대한 의지가 많이 느껴지는 곳이었으며, 정보과학대학원의 다른 학과의 강의도 수강할 수 있다는 것이 장점으로 느껴지는 곳이었습니다.

 

 

숭실대학교 정보과학대학원 인공지능학과 자세한 정보▼

https://itmba.ssu.ac.kr/%eb%8c%80%ed%95%99%ec%9b%90-%ec%95%88%eb%82%b4/%ed%95%99%ea%b3%bc-%eb%b0%8f-%ea%b5%90%ea%b3%bc%ec%86%8c%ea%b0%9c/?depth3=1002&depth4 

 

숭실대학교 정보과학대학원 인공지능학과 모집요강▼

https://itmba.ssu.ac.kr/%ec%9e%85%ed%95%99%ec%95%88%eb%82%b4/%eb%aa%a8%ec%a7%91%ec%9a%94%ea%b0%95/

 

숭실대학교 정보과학대학원 인공지능학과 경쟁률▼

http://www.gradmap.co.kr/gradschool(b)/html/grad8431.html 

 

 

면접은 서류제출자 전체를 대상으로 진행되며, 2022.06.16 목요일 오후 7시에 숭실대학교에서 면접을 봤습니다.

 

면접은 따로 순서가 부여되지 않고 장소에 도착한 선착순으로 면접을 보며, 서류 전형에서는 자기소개서나 연구계획서를 따로 제출하지 않았지만 면접 대기실에서 짧게 배우고 싶은 것, 본인의 장점 등에 대해 작성하여 제출하였습니다.

 

면접은 교수님 2명과 면접자 2명으로 진행됩니다.

 

숭실대학교 정보과학대학원 인공지능학과 면접 질문

  • 자기소개
  • 어떻게 숭실대학교 정보과학대학원을 알게 되었는지
  • 회사에서는 대학원에 진학한다고 했을 때 반응이 어땠는지
  • 통학 환경(거리 등)에 관한 질문

 

 

면접은 대학원에 지속적으로 다닐 수 있는지 등을 중점적으로 보는 것 같았으며, AI 지식에 대해 물어보지는 않았습니다.

면접보다는 서류 제출 시에 보여 주는 스펙이 더 중요하지 않을까 추측해봅니다.

개인적으로 안내해주시는 분 부터 교수님까지 굉장히 온화하시다는 생각이 들었습니다.

 

숭실대학교 정보과학대학원 인공지능학과 합격 스펙

(개인정보라 대략적으로 작성하였습니다.)

직장경력: IT업계 약 2년

학점: 4점대

학력: 4년제 IT학과 졸업

 

 

결과: 예비합격 후 추가합격

등록: 미등록

728x90
반응형

+ Recent posts