본문 바로가기

인공지능14

[챗봇 만들기 feat.OpenAI] 선택지 여러개 요청하기, 결과에 질문을 같이 나오게 하기 (n, echo) 지난 기록들 [챗봇 만들기 feat.OpenAI] Completion, stop구성 환경python 3.8openai 0.28.0 앞의 문장을 주고, 뒤의 문장을 이어서 완성시키기Completion 이라는 함수를 사용해보았다.최신 openai api는 해당 함수를 지원하지 않아 openai버전을 0.28.0으로 downgrade 시daily-studyandwork.tistory.com  Chat GPT에게 선택지를 여러개 달라고 해보자 openai.Completion.create( model="gpt-3.5-turbo-instruct", prompt="tell me a joke about death", max_tokens=100, n=3)  결과- 다음과 같이 choices를 3개 .. 2024. 7. 4.
[챗봇 만들기 feat.OpenAI] Completion, stop 구성 환경python 3.8openai 0.28.0 앞의 문장을 주고, 뒤의 문장을 이어서 완성시키기Completion 이라는 함수를 사용해보았다.최신 openai api는 해당 함수를 지원하지 않아 openai버전을 0.28.0으로 downgrade 시켜준 뒤에 진행해야 한다# Completetion 실행 하기openai.Completion.create( model="gpt-3.5-turbo-instruct", prompt="The dog says ")결과에 대해 알아보자면 object: 실행한 내용model : 사용된 모델choices : 결과물, 여러 문장을 주어주고 (성능이 확실한지는 잘 모르겠다... 모델의 문제인지?)- finish_reason : stop인 경우 -> 적절하게 문장.. 2024. 6. 23.
[밑바닥부터 시작하는 딥러닝] 손실 함수 신경망의 성능을 알아볼 때 쓰인다. 이때 얼마나 잘 처리하냐를 알아보는 것이 아니라 얼마나 처리를 하지 못하냐가 지표로 나타난다. 1. 오차제곱합 각 원소의 출력과 정답 레이블의 차를 제곱한 후 합을 구한다. def sum_squares_error(y,t): return 0.5 * np.sum((y-t)**2) 2. 교차 엔트로피 오차 ​​ 오차제곱합의 판단과 일치한다. def cross_entropy_error(y, t): delta = 1e-7 return -np.sum(t * np.log(y+delta)) * 이때 delta와 같은 작은 값을 더해주는 이유는 log에 0들어가는 경우 -무한대로 발산하기 때문에 작은 값을 더해주어 값이 설정되도록 해준다. 3. 미니배치 학습 훈련 데이터 중 일부만 골.. 2021. 10. 21.
[밑바닥부터 시작하는 딥러닝] 신경망 출력층 1. 항등 함수 y=x 로 입력이 그대로 출력되는 함수이다. 2. 소프트맥스 함수 ​​ 소프트맥스 함수의 최종 수식이다. 소프트맥스 함수는 원래 아래 C'의 상수항이 없는 함수이지만 넣어도 값은 동일하다. 상수를 넣는 이유는 소프트맥스 함수를 그냥 계산할 시에 숫자가 너무 커는 오버플로 현상이 생기기 때문이다. 이를 이용해 다음과 같은 형식으로 소프트맥스 함수를 구현할 수 있다. def softmax(a): c = np.max(a) exp_a = np.exp(a-c) sum_exp_a = np.sum(exp_a) y = exp_a / sum_exp_a return y 적용하여 계산하면 다음과 같은 결과가 나온다. a = np.array([1010,1000,990]) y = softmax(a) print(.. 2021. 10. 21.