# UCL에서 진행한 샘 알트먼 간담회 요약

- OpenAI는 현재 GPU 자원에 제약을 받고 있으며, 이로 인해 파인튜닝 API와 더 긴 컨텍스트 윈도우 등 일부 기능의 병목 현상이 발생하고 있다.

- OpenAI는 미래에 GPU 자원을 효율적으로 사용하고, 10만~100만 토큰의 컨텍스트 윈도우를 지원할 수 있도록 발전시키기 위해 노력하고 있다.

- 파인튜닝 API의 병목 현상을 해결하고, 효율적인 파인튜닝 메소드를 도입하기 위한 개선이 예정되어 있다.

- OpenAI는 미래 로드맵에서 저렴하고 빠른 GPT-4, 더 긴 컨텍스트 윈도우, 파인튜닝 API, Stateful API, 멀티 모달리티를 개발할 예정이다.

- 플러그인은 PMF(Product Market Fit, 시장이 원하는 것에 도달함)를 가지지 못하고 있으며, 일부 사용자는 플러그인이 필요하지만 다른 사용자는 그렇지 않을 수 있다.

- OpenAI는 경쟁 제품 출시보다는 개발자 커뮤니티를 중요한 자산으로 인식하고, API를 통해 개발자들이 제품을 개발하고 플랫폼을 향상시킬 수 있도록 지원할 것이다.

- OpenAI는 규제의 필요성을 인식하고, 오픈 소스의 중요성을 강조하며, 큰 규모의 모델 호스팅에 제한이 있을 수 있다는 우려를 언급하고 있다.

- AI 모델의 스케일링 법칙은 여전히 유효하며, 내부 데이터의 크기를 키우면 성능을 계속해서 향상시킬 수 있다고 설명되고 있다.

[OpenAI's plans according to Sam Altman](https://website-754fwhahs-humanloopml.vercel.app/blog/open_ai_talk)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
