인공지능(11)
-
[AI] 인공지능과 나의 미래 (ChatGPT 사용 과제)
1. ChatGPT 사용기 원래부터 ChatGPT 유료 버전을 사용 중에 있었습니다. 월 20달러(대략 2만 원 중반 정도)를 지불하면 GPT-4와 더불어 새롭게 발표되는 각종 기능들을 사용할 수 있습니다. 4월 8일 기준 원달러 환율 1319원으로 계산하면 월 2만 6380원가량입니다. 저는 주로 개발 공부를 위해서 어려운 부분이 생기면 질문을 합니다. 구글링을 하는 경우보다 빠르게 원하는 대답을 얻을 수 있습니다. 또한 파생되는 질문을 계속해서 던질 수 있는 것이 좋습니다. 최근에는 팀 프로젝트로 유니티 멀티플레이 게임을 만들어야 할 일이 생겼습니다. 저는 단 한 번도 게임 프로그래밍을 해본 적 없고 배운 적도 없습니다. GPT-4에게 간단한 질문을 통해서 멀티 게임을 만들 때 사용할 프레임워크부터 ..
2023.04.09 -
2022-11-26 데이터마이닝_9
1. Test & Score CA : Classification accuracy is the proportion of correctly classified examples. Precision : Precision is the proportion of true positives among instances classified as positive, e.g. the proportion of Iris virginica correctly identified as Iris virginica. Recall : Recall is the proportion of true positives among all positive instances in the data, e.g. the number of sick among a..
2022.11.26 -
2022-11-13 AI입문_9
1. CNN 활용 개요 CNN은 주로 컴퓨터 비전에 많이 활용된다. 컴퓨터 비전의 주요 tasks Classification Semantic Segmentation Classification + Localization Object Detection Instance Segmentation 가. 이미지 분류 (Classification) CNN의 가장 기본적인 활용 분야로 지정된 개수의 카테고리로 이미지를 분류한다. 대표적인 학습 데이터로 MNIST와 ImageNet이 있다. MNIST 0~9까지의 손글씨 이미지를 분류한 공개 학습 데이터. 미국의 우편번호 손글씨를 스캔해서 만들었다. 28*28 1채널 (회색) 이미지로 각 픽셀은 0~255의 값을 가진다. 훈련용 이미지 60000장에 검증용 이미지 1000..
2022.11.13 -
2022-11-13 데이터마이닝_7
1. 연관규칙 대량의 데이터에서 빈번하게 발생하는 데이터의 패턴을 찾는 것. 맥주를 사는 사람은 마른안주도 함께 구매한다. 장바구니 분석이라고도 함. 지지도(support) : 특정 아이템이 데이터에서 발생하는 빈도 : A와 B를 동시에 포함하는 거래수 / 전체 거래수 신뢰도(confidence) : 두 아이템의 연관규칙이 유용한 규칙일 가능성의 척도 (높을수록 좋다) : A와 B를 동시에 포함하는 거래수 / A를 포함하는 거래수 향상도(lift) : 두 아이템의 연관규칙이 우연인지 아닌지를 나타내는 척도 (1을 기준으로 크거나 작아야 의미 있는 규칙이다) : A와 B를 동시에 포함하는 거래수 / A포함거래수 * B포함거래수 출처 : https://welcome-to-dewy-world.tistory.c..
2022.11.13 -
2022-11-07 AI입문_8
1. 딥러닝 개요 가. 딥러닝의 등장과 확산 1) 딥러닝의 등장 다층 신경망은 계층의 개수가 커지면서 신경망의 학습이 제대로 이뤄지지 않는 문제가 있다. 기울기 소실과 기울기 폭증과 관련된 문제다. 심층 신경망 (deep neural network : deep learning)은 이러한 문제를 해결하면서 등장했다. 2006년 힌튼 (Hinton) 교수가 심층신경망의 학습 가능성을 제시했다. 이는 적층 RBM(Stack Restricted Bolzmann Manchin) 기반 가중치 학습, 심층신경망인 DBN, 사전학습(pretrain) 후 상세 조정(wake-sleep 알고리즘)과 같은 기술을 사용했다. 2) 딥러닝의 확산 딥러닝은 아래와 같은 배경에서 활성화되었다. 혁신 알고리즘 공개 개발환경 고성능 ..
2022.11.08 -
2022-11-05 AI입문_7
1. 기울기 강하 기법 가. 학습법 개관 (1) 신경망 학습법 개관 분석적 기법 : 방적식을 구한 후 해를 계산하는 방식 → 계산이 복잡하고 비가역적이면 계산이 불가하다. 에러 정정 학습법 : 오차를 점직적으로 줄여가는 방식 (2) 에러 정정 기법 주어진 입력 샘플에 대해 출력을 산출한다. 이후 출력과 목표 출력 간의 차이가 줄어들도록 가중치를 변경한다. 손실(Loss, 에러)를 어떻게 계산할 것인가? → 손실 함수로 정량화 손실이 줄어들도록 가중치를 조정하는 방법 → 기울기 강하 기법 활용 나. 손실함수 (1) 손실 함수 손실 함수는 목표치와 실제 출력 간의 차이(손실, 에러)를 계량화하는 함수. 에러 함수의 종류는 다양한다. ex) 평균제곱에러, 교차엔트로피 에러 등 (2) 평균제곱에러 평균 제곱 에..
2022.11.06 -
2022-10-13 AI입문_6
1. 다층 신경망 (FNN) 2 계층으로 구성된 다층 퍼셉트론(MLP)은 XOR 기능을 구현해냈다. 이로써 퍼셉트론의 선형 분리성의 한계를 극복했다. 오류 역전파 알고리즘(Backpropagation)으로 다 계층 구조 활용의 최대 걸림돌인 학습 문제를 해결했다. 활성화 함수로 비선형 활성화 함수(시그모이드 함수)를 적용하면서 다양한 함수 기능 구현. 시그모이드 함수를 사용하는 순간부턴 다층 퍼셉트론보단 다층 신경망, 일반 신경망(FNN)이라 칭한다. 선형/비선형 회귀, 이진 분류, 다중 분류 등에 활용된다. 가. FNN 구조 Feed forward 구조 한 개의 히든 계층 다양한 활성화 함수 사용 일반적으로 완전연결층(fully-connected) 보통 ‘계층’이라 함은 앞 단 계층과의 가중치까지 포함..
2022.10.13 -
2022-10-05 AI입문_5
1. 인공 신경망의 뉴런 모델 가. 신경망 인간의 두뇌를 모방한 연결주의의 대표적 기술. 안정적인 학습 기능, 병렬 처리와 에러 감내(fault tolerance) 등의 장점. 나. 생물학적 신경망 Hebbian rule : 두 인접 뉴런이 동시에 발화하면 연결 강도 증가. : Fire Together Wire Together! : 그렇지 않으면 연결강도 감소 다. 뉴런의 연산 모델 입력 신호가 생기면 이를 각각의 가중치와 곱한다. 곱한 값들을 모두 더해서 편향 값을 더해 가중 입력합 v를 구한다. 활성화 함수를 통해서 최종적으로 출력값을 구한다. 편향 (bias) : 뉴런의 입력과 별도로 뉴런에 가해지는 값 임계치 (threshold) = (-1)*편향 라. 뉴런 연산의 벡터 표현 입력과 가중치를 행렬..
2022.10.05