2019년 1회 빡독(2019년 02월 16일) 행사에서 스피치한 source code를 공유합니다.
뼈아대, 일취월장, 완공 책을 읽고 익힌 것을 일상에서 얼마나 생각하고 있는지 정량적으로 알아보기 위함.
평소에 부족한 topic을 알게 되어 스스로 피드백을 할 수 있었음.
적자생존, 적는 자 살아남는다?!(feat. 데일리리포트)
https://ratsgo.github.io/from%20frequency%20to%20semantics/2017/06/01/LDA/ https://www.machinelearningplus.com/nlp/topic-modeling-python-sklearn-examples/ https://medium.com/mlreview/topic-modeling-with-scikit-learn-e80d33668730 http://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf
lda, preplexity, text mining, topic modeling, 고영성, 고작가, 대교, 독서, 빡독, 뼈아대, 성장, 신박사, 신박사tv, 신영준, 졸꾸, 졸꾸러기, 졸꾸러기 지수, 체인지그라운드, 통계돌이