나도 AI 잘 알고 있고, 트레이딩에 AI도 직접 써본 사람이다.
트레이딩은 원래 불확실한 게임이고, 우리는 일관성을 만들고 불확실성을 줄이려 애쓴다.
그런데 LLM 같은 AI는 본질적으로 또 다른 불확실성을 가져와서 트레이딩의 불확실성을 더 키운다—결과가 더 예측 불가능해질 가능성이 높다.
이게 잘못됐다고 생각하면, 왜 그런지 근거를 대 보라.
🧐 배경 설명 및 요약
왜 이 글이 올라왔나: 작성자는 자신이 속한 그룹에 AI(특히 LLM)를 트레이딩에 쓰는 사람들이 있어서 경계심을 표하고자 글을 쓴 것이다. 즉 현장에 AI를 직접 도입하는 움직임을 보고 우려를 표현한 것이다.
작성자가 실제로 걱정하는 핵심은 무엇인가: 작성자는 트레이딩에서 안정적이고 일관된 성과가 중요하다고 보고, LLM이 갖는 예측 불가능성과 오작동 가능성이 오히려 리스크를 키울 수 있다고 우려한다. 결국 'AI를 무턱대고 신뢰하면 안 된다'는 경고다.
핵심 개념(아주 간단히): LLM(대규모 언어 모델)은 주로 텍스트를 학습한 모델로, 과거 텍스트 패턴을 바탕으로 다음 단어를 예측하는 데 강하다. 이것이 꼭 주가 같은 시계열 데이터를 정확히 예측한다는 뜻은 아니다. 반면 데이터 정리, 코드 생성, 백테스트 자동화 등 보조 업무에서는 유용하게 쓸 수 있다.
독자가 집중할 점: 1) AI를 '결정권'으로 줄지, '보조 도구'로 둘지 명확히 하라. 2) AI가 내놓는 출력은 항상 검증하고, 백테스트·리스크 관리 장치를 마련하라. 3) 가격 예측 목적이라면 LLM의 한계를 이해하고 다른 통계적·시계열 분석 기법과 병행하라.
댓글 (0)
로그인하고 댓글을 작성하세요.
아직 댓글이 없습니다.