Home
[AIW홈]
[이야기]
🗣️자유대화방
[홍보/무료세미나]
Subscribe

🗣️자유대화방

정치이야기, 사적인이야기 빼고 자유롭게!
디오
구독서비스 한방에 정리가능합니다. 제 스레드 한번 보세요~
@do.aiworks on Threads
🔍 AI 서비스 구독료 한달에 얼마 나가는지 계산해봤어? 나는 계산하고 좀 놀랐어... ChatGPT($20) + Midjourney($10) + Claude($20) + 기타 등등... 그래서 찾아보다가 Subly 써봤는데, 생각보다 괜찮더라고! ✨ 좋은 점 몇 가지: • AI 구독 서비스 한눈에 정리 가능 • 결제일 알림으로 자동결제 막을 수 있음...
threads.net
👍
3 Reactions
2 Comment
Reaction
Comment
Share
디오
작가란 무엇일가요? 한번쯤 생각해 볼 만한 주제 인듯해서 공유해 봅니다.
Reaction
Comment
Share
디오
디스크로키드로 음원수익화 하시는분들 속보입니다.
최근에 등록된 음원이 삭제되고, 수익금이 강제 청산된 사례가 나왔다고 하네요. 왜 그렇게 되었는지는 내용도 아직 안나와서 유의할 필요가 있어보입니다. 금액도 200만원대라고 합니다.
저도 디스크로키드에 음원 등록하려고 했는데 보류해야겠군요....
👍
1 Reaction
1 Comment
Reaction
Comment
Share
yuli
요즘 연일 화제인 Deepseek이 증류 기술을 이용해 학습했다고 해서
증류에 대해 다루어보았습니다.
지식 증류 Knowledge Distillation - 📖AI 키워드/용어 - AI WORKERS
AI 기술의 증류 기술 AI 기술의 지식 증류(knowledge distillation)는 모델의 경량화와 성능 향상을 목표로 하며, 특히 대규모 데이터셋을 다루는 데 유용하다. 증류는 복잡한 AI 모델을 더 작고 효율적인 모델로 변환하는 기술이다. 증류 기술은 큰 모델의 성능을 유지하면서도 더 적은 자원을 사용한다. 즉, 경량화와 성능 향상을 목표로 한다. 증류는 일반적으로 더 큰 '교사' 모델의 지식을 더 작은 '학생' 모델로 전이하는 과정이다. 증류의 기본 원리 증류는 일반적으로 두 가지 모델을 사용한다. 교사 모델(Teacher Model): 대량의 데이터로 학습된 복잡한 모델 학생 모델(Student Model): 상대적으로 간단하고 경량화된 모델 교사 모델은 학생 모델이 학습할 수 있도록 필요한 정보를 제공하고, 학생 모델은 교사 모델의 예측 결과를 바탕으로 학습한다. 증류의 과정 1. 교사 모델 학습 먼저, 대규모 데이터셋을 사용하여 교사 모델을 학습한다. 이 모델은 정확도가 높고 구조가 복잡하다. 먼저, 대규모 데이터셋을 사용하여 교사 모델을 학습한다. 이 모델은 정확도가 높고 구조가 복잡하다. 2. 예측 결과 생성 학습된 교사 모델을 사용하여 새로운 데이터에 대한 예측 결과를 생성한다. 이는 학생 모델이 학습하는 데 필요한 '지식'이 된다. 이 예측은 단순한 결과뿐만 아니라, 각 선택지에 대한 확률 같은 추가적인 정보도 포함한다. 예를 들어, 고양이 사진을 보고 "고양이일 확률 90%, 개일 확률 5%, 토끼일 확률 5%" 같은 식이다. 3. 학생 모델 학습 학생 모델은 교사 모델의 예측 결과를 기반으로 학습한다. 이 과정에서 학생 모델은 교사 모델의 지식을 압축하여 파라미터에 반영한다. 4. 성능 평가 학습이 완료된 후, 학생 모델의 성능을 평가하여 교사 모델과 비교한다. 일반적으로 학생 모델은 경량화되었음에도 불구하고 상당한 성능을 유지한다. 증류 기술의 원리
slashpage.com
👍
4 Reactions
Reaction
Comment
Share
yuli
Kling에도 Pika 같은 이펙트 기능이 생겼습니다.
mochimochi와 boomboom 두 가지가 있어요.