기타 135

마크다운 MarkDown 연습

마크다운이란 마크다운(Markdown)은 텍스트 기반의 마크업(Markup) 언어로, 일반 텍스트 편집기를 사용하여 문서를 작성할 수 있습니다. 마크다운은 간단하고 직관적인 문법을 제공하여, 비전문가들도 쉽게 문서를 작성할 수 있게 해줍니다. 마크다운을 왜 사용해야 하는가? Tistory 블로그를 운영하면서, 오래전부터 마크다운을 지원한다는 것은 알고 있었습니다. 하지만 그냥 rich editor?를 사용하면 되지 뭐하러 마크다운을 사용해야 하나... 하며 모른척 했습니다. 그러고 생각해보면, 제가 마크다운을 처음 접했던 것은 지금부터 15년 전쯤이 아닐까 싶은데.... 제가 이 블로그를 운영하기 시작하며 여러 블로그 친구들을 사귀었는데, 그중 몇분이 마크다운을 열심히 전도했던 것이 생각나네요. 아무튼,..

기타/WWW 2023.03.21

코로나 자가격리 면제 체험기

올해 국토교통부에서 발주한 공적개발원조(ODA: Official Development Assistance) 사업과 관련해서 세번째 우즈베키스탄을 다녀왔습니다. 우즈베키스탄은 변이 바이러스로 인해 위험국가로 지정되어 있습니다. 그런데, 거의 모든 사람이 마스크를 끼는 우리나라와는 달리 그 나라에서는 마스크를 끼는 비율이 그다지 높지 않습니다. 그나마 처음 갔을 때는 한 30%정도 끼고 다니는 것 같더니, 이번에는 10%도 안되었습니다. 우즈베키스탄에서는 하루에 1천명정도 감염된다고 하는데, 우리나라처럼 철저한 추적조사를 하지 않기 떄문에 훨씬 많은 사람이 감염되었을 거라고 추정하는데, 우리 일행이 만난 공무원들도 마스크를 전혀 끼지 않았습니다. (처음 방문했을 때는 몇명 끼고 있었는데, 이번엔 정말 아무도..

기타/여행기 2021.11.26

우즈베키스탄 현지 유심카드 사용기

올해 우즈벡으로 세번째 출장왔습니다. 제가 수행하고 있는 국토교통부 발주 ODA 사업 때문입니다. 저는 전체 사업중 아주 작은 일부만 담당하고 있는데, 다른 교수님들은 모두 자가격리 때문에 출장이 힘들어서 할 수 없이 제가 세번다 출장에 따라오게 되었습니다. 이번 마지막 출장은 정말 오기 싫었는데 할수 없이... ㅠㅠ 출장 혹은 여행 올때 챙겨야 할 것중 가장 중요한 중 하나가 핸드폰 로밍입니다. 요즘 연결이 끊어지면 엄청 힘들잖아요. 맨 처음 출장 올 때는 당연히 통신사 제공 로밍을 사용했습니다. 하루에 1만원 정도로 기억합니다만, 통화/문자/데이터가 대부분 충분하게 사용할 수 있습니다. 두 번째 출장 올 때는 통신사 제공 무료 로밍을 사용했습니다. 속도가 100kbps 정도이고 대략 카톡 사용할 정도..

기타/여행기 2021.11.19

Epub 에디터 Sigil 투토리얼

이 절에서는 여러분의 첫번째 EPUB 이북을 생성하고, Sigil 사용법을 배운다. Sigil의 기능에 대한 자세한 사항은 "기능" 장을 참고하라. 먼저 EPUB를 만들 때 무엇이 필요한지에 대해 간략하게 알아보기위해, 여러분이 해야할 작업을 순서대로 나열하면 다음과 같다. (EPUB 문서가 없을 경우) 문서를 HTML로 변환하여, Sigil로 불러들인다. 저자(Author), 제목(Title)을 비롯한 자세한 사항을 입력한다. 표지 그림을 추가한다. 목차(Table of Contents)를 생성한다. 생성한 이북이 EPUB 표준에 적합한지 검증한다. Sigil에서 형태 등 모든 것을 테스트한다. 실제 이북 리더에서 테스트한다. - 어떤 리더에서는 작동되지만, 다른 리더에서는 작동되지 않는 경우가 있다...

기타/WWW 2021.05.30

김성훈 딥러닝 8 - 딥러닝의 기본개념

Lec 08-1 딥러닝의 기본 개념 : 시작과 XOR 문제 https://www.youtube.com/watch?v=n7DNueHGkqE인간의 궁극적 목적 : 대신 생각해주는 기계전체적으로 매우 복잡하지만, 그것을 구성하는 뉴런은 매우 단순함 이것을 수학적으로 만들면 다음과 같음.body에서 여러개의 신호 $ x_0 , x_1 $ 등을 가중치 $ w_0 w_1 $로 받아 모두 합치고, 여기에 bias를 추가한 값이 activation function의 일정한 threshold를 넘으면 output =1이는 Logistic regression 과 유사Hardware 구현 AND/OR 연산을 하면 스스로 학습가능하고 재생산가능한 인공지능이 가능할 것이라고 생각함. 이는 단순한 전기적 신호처리로도 가능하다.그..

기타 2018.02.14

김성훈 딥러닝 7 - 학습 rate, Overfitting, 일반화

Lec 07-1 학습 rate, Overfitting, 일반화(Regularization) https://www.youtube.com/watch?v=1jPjVoDV_uo Learning_rate : 이제까지는 임의의 값을 사용했음이 값을 크게 할 경우, 진동하거나 발산(overshooting)할 수 있음.아주 작은 값을 사용할 경우, 시간이 너무 많이 걸리고, local minimum에서 정지어떤 값이 좋은가는 특별한 법칙은 없다. 0.01로 시작하고, 나오는 cost 값에 따라서 줄이거나 늘리는 방법을 사용하면 된다.Data(X)의 전처리. (Gradient descent용)아래와 같이 x1, x2의 범위가 차이가 크면, 왜곡된 형태가 되어 데이터 처리가 힘들 수 있다.이 경우, 아래와 같이 중심을 원..

기타/WWW 2017.11.19

김성훈 딥러닝 6 - Softmax Regression

Lec 6-1 Softmax Regression 기본개념 https://www.youtube.com/watch?v=MFAnsx1y9ZI복습H(x) = WX 와 같이 Linear Regression으로부터 출발한다. 그러나, 이런 $WX$ 형태의 단점은, 출력이 $-\infty \lt H_L(x) \lt~\infty$ 이므로, 0이냐 1이냐를 고르는 문제에서는 적합하지 않다.그래서 $z = H_L (X)$라고 놓고, 이 값을 0부터 1로 압축할 수 있는 $g(z)$ 함수를 사용하여 해결한다. 이에 가장 적합한 $g(x)$는 sigmoid라고 하는 $g(z) = \frac {1}{1+e^{-z}}$ 이다. 이를 적용했을 때의 Hypothesis는 $H_R (X) = g(H_L (X))$ 가 된다.수식이 많아..

기타/WWW 2017.11.17

김성훈 딥러닝 5 - Logistic Classification의 가설함수 정의

Lec 05-1 - Logistic Classification의 가설함수 정의 https://www.youtube.com/watch?v=PIjno6paszYNeural network과 관계가 깊음.Binary Classification은 두가지 범주로 나누는 것 -> 0, 1 encodingSpam or HamShow or Hide주식 Buy/SellLinear Regression으로 가능한가?예를 들어 0.5 정도 이하면 Fail로 두면 될텐데, 50과 같은 값으로 인해, (대칭이 이루어지지 않아) 합격/불합격 선이 바뀌게 될 수 있다.또한 출력이 0 이하나 1 이상으로 나올 수 있다.... 별로 좋지 않다.그래서 Logistic Hypothesis 가 필요. (출력 범위가 0에서 1까지)아래와 같은 ..

기타/WWW 2017.11.16

김성훈 딥러닝 4 - 다변수(Multi-variable) Linear Regression

Lec 04 - 다변수(Multi-variable) Linear Regression https://www.youtube.com/watch?v=kPxpJY6fRkY복습선형 회귀분석을 위해서는 1) 가설(Hypothesis)를 세우고, 2) 비용(Cost/Loss) 함수를 만든 뒤, 3) Gradient descent 알고리듬을 적용한다.비용함수를 결정하고, 이를 최소로 줄이는 W, b를 찾는 것이 학습을 시키는 과정이다.단변수 회귀분석에서는, X=[x1, x2, .... , xn], Y=[y1, y2, ... , yn] 의 형태가 됨.다변수 회귀분석은X=[[x11, x12, .... , x1m],[x21, x22, .... , x2m], ..., [xn1, xn2, .... , xnm]], Y=[y1, y..

기타/WWW 2017.11.16

김성훈 딥러닝 3 - Linear Regression 의 cost 최소화 알고리듬

Lec 03 - Linear Regression 의 cost 최소화 알고리듬의 원리 https://www.youtube.com/watch?v=TxIVr-nk1so복습 : 선형회귀분석 모델의 가설(Hypothesis)과 비용함수(Cost function) 설명을 위해 H(x) = W(x)로 두고 진행W=1 일때의 cost(W)는?cost(W) = 1/3( (1x1 -1)^2 + (1x2 - 2)^2 + (1x3 -3)^2 ) =0W=0 일때의 cost?cost(W) = 1/3( (0x1 -1)^2 + (0x2 -2)^2 + (0x3 -3)^2 ) = 1/3 (1+4+9) = 4.67W=2 일때... cost = 4.67... 많은 값에 대해 cost()의 그래프를 그리면널리 사용되는 알고리듬이 Gradie..

기타/WWW 2017.11.15