• SEARCH

    통합검색
세모계
    • Dark Mode
    • GNB Always Open
    • GNB Height Maximize
    • Color
    • Brightness
    • SINCE 2015.01.19.
    • 세모계 세모계
    •   SEARCH
    • 세상의 모든 계산기
      • 자유(질문) 게시판
      • 계산기 뉴스/정보
      • 수학, 과학, 공학 이야기
      • 세모계 : 공지 게시판
        • 구글 맞춤검색
    • TI
    • CASIO
    • HP
    • SHARP
    • 일반(쌀집) 계산기
    • 기타계산기
    • by OrangeDay
  • 세상의 모든 계산기 수학, 과학, 공학 이야기
    • 세상의 모든 계산기 수학, 과학, 공학 이야기 ()
    • 아이템 강화 확률 (12강 -> 18강을 이루기 위한 평균 기대 횟수는?)

    • Profile
      • 세상의모든계산기
      • 2024.08.15 - 20:46 2024.08.15 - 16:13 266 3

    기본 개념 : 마르코프 체인, Markov chain, 마르코프 연쇄, 마코브 연쇄


     

    아이템 강화 확률 (12강 -> 18강을 이루기 위한 평균 기대 횟수는?)

     


    image.png

     

    12강 상태에서 : 실패(-1강) 확률=0%, 제자리 유지 확률=70%, 성공(+1강) 확률=30%
    13강 상태에서 : 실패(-1강) 확률=40%, 제자리 유지 확률=30%, 성공(+1강) 확률=30%
    14강 상태에서 : 실패(-1강) 확률=40%, 제자리 유지 확률=30%, 성공(+1강) 확률=30%
    15강 상태에서 : 실패(-1강) 확률=35%, 제자리 유지 확률=45%, 성공(+1강) 확률=20%
    16강 상태에서 : 실패(-1강) 확률=35%, 제자리 유지 확률=45%, 성공(+1강) 확률=20%
    17강 상태에서 : 실패(-1강) 확률=35%, 제자리 유지 확률=45%, 성공(+1강) 확률=20%
    18강 상태에서 : 강화 시도 불가능

     

    마르코프 연쇄 이론을 위의 아이템 강화 시나리오에 적용하기 위해, 각 용어를 정의해 보겠습니다.


    1. 확률공간 (Probability Space)

     

       확률공간은 마르코프 연쇄의 상태와 그 상태들 사이의 전이 확률로 정의됩니다. 

       - 상태공간 (State Space): 아이템의 강화 단계로 정의됩니다. 이 경우, 상태공간은 \(\{12, 13, 14, 15, 16, 17, 18\}\)입니다. 상태 18은 최종 상태이므로, 이후 단계는 없습니다.
       - 전이확률행렬 (Transition Probability Matrix): 각 상태에서 다른 상태로 전이할 확률을 담고 있는 행렬입니다. 여기서, 전이확률행렬 \(P\)는 다음과 같습니다:

    \[
    P = \begin{bmatrix}
    0.7 & 0.3 & 0 & 0 & 0 & 0 & 0 \\
    0.4 & 0.3 & 0.3 & 0 & 0 & 0 & 0 \\
    0 & 0.4 & 0.3 & 0.3 & 0 & 0 & 0 \\
    0 & 0 & 0.35 & 0.45 & 0.2 & 0 & 0 \\
    0 & 0 & 0 & 0.35 & 0.45 & 0.2 & 0 \\
    0 & 0 & 0 & 0 & 0.35 & 0.45 & 0.2 \\
    0 & 0 & 0 & 0 & 0 & 0 & 1
    \end{bmatrix}
    \]

         여기서 \(P_{ij}\)는 상태 \(i\)에서 상태 \(j\)로 전이할 확률을 의미합니다.

     

    2. 가측 공간 (Measurable Space)

     

       마르코프 연쇄에서의 가측 공간은 주로 상태공간의 부분집합으로서, 우리가 관심 있는 사건들을 정의할 수 있는 집합입니다. 상태공간 자체가 가측 공간이 되며, 특정 강화 단계가 나타나는 사건들을 정의할 수 있습니다.

       - 상태공간 \(\{12, 13, 14, 15, 16, 17, 18\}\) 자체가 가측 공간입니다.

     

    3. 메모리 (Memory)

     

       메모리는 마르코프 연쇄의 중요한 개념으로, 현재 상태만으로 미래 상태를 예측할 수 있는 성질을 의미합니다. 즉, 마르코프 연쇄는 현재 상태가 주어지면, 과거 상태는 기억할 필요가 없습니다.

       - 여기서 메모리는 '마르코프 성질'을 의미합니다. 즉, 다음 단계의 상태는 오직 현재 상태에 의존하며, 이전의 상태들은 영향을 미치지 않습니다.

     

    4. 확률 변수 (Random Variables)

     

       확률 변수는 상태를 나타내는 변수로, 마르코프 연쇄에서는 각 시점의 상태를 확률 변수로 모델링합니다.

       - 예를 들어, 강화 시도 후 아이템의 단계는 확률 변수 \(X_t\)로 나타낼 수 있습니다. 여기서 \(X_t\)는 강화 시도의 시점 \(t\)에서 아이템의 단계입니다. \(X_t\)는 상태공간 \(\{12, 13, 14, 15, 16, 17, 18\}\)의 값을 가집니다.

     

    5. 시간 동질 마르코프 연쇄

     

    주어진 아이템 강화 시나리오를 기반으로 한 마르코프 연쇄는 시간 동질 마르코프 연쇄 (Time-Homogeneous Markov Chain)입니다.

    주어진 전이 확률 행렬을 보면, 각 상태에서 다른 상태로의 전이 확률은 상태의 시점에 관계없이 동일하게 유지됩니다. 즉, 상태 12에서 13으로 전이할 확률이 0.3이고, 13에서 14로 전이할 확률이 0.3입니다. 이러한 확률은 시간이 지남에 따라 변화하지 않으며, 일정합니다.

    따라서 이 마르코프 연쇄는 시간 동질적입니다. 

    이러한 특성 덕분에 시간 동질 마르코프 연쇄는 분석이 용이하며, 장기적인 상태 분포, 평균 상태 도달 시간, 흡수 상태 등을 계산하는 데 유용합니다.

     

    이러한 정의를 바탕으로 마르코프 연쇄 이론을 통해 아이템 강화의 동작을 모델링하고 분석할 수 있습니다.

     


     

    마르코프 연쇄의 평균 흡수 시간(Mean Absorption Time) 이론은 마르코프 연쇄 이론에서 중요한 개념 중 하나입니다. 이를 이해하기 위해, 먼저 마르코프 연쇄와 흡수 상태(Absorbing State)에 대해 간략히 설명하겠습니다.

     

     1. 마르코프 연쇄(Markov Chain)

     

    마르코프 연쇄는 시스템이 시간에 따라 상태를 변화시키는 모델입니다. 각 상태는 현재 상태에만 의존하고, 이전의 상태에는 의존하지 않는다는 특징이 있습니다. 이러한 성질을 '마르코프 성질'이라고 합니다.

     

     2. 흡수 상태(Absorbing State)

     

    마르코프 연쇄의 상태 중에서 '흡수 상태'란, 한 번 그 상태에 도달하면 그 상태를 벗어날 수 없는 상태를 말합니다. 흡수 상태로 도달하면 시스템은 그 상태에 머무르게 됩니다. 모든 상태가 결국 흡수 상태로 전이되는 마르코프 연쇄를 '흡수 마르코프 연쇄'라고 합니다.

     

     3. 평균 흡수 시간(Mean Absorption Time)

     

    평균 흡수 시간은 어떤 상태에서 시작해서 흡수 상태에 도달할 때까지의 평균 시간을 의미합니다. 이는 주어진 상태에서 흡수 상태로 전이되는 데 걸리는 평균 단계 수를 계산하는 것입니다.

     

    계산 방법

    1. 전이 확률 행렬(Transition Probability Matrix): 마르코프 연쇄의 전이 확률 행렬을 \( P \)라고 할 때, 이 행렬은 상태들 간의 전이 확률을 나타냅니다. 

    2. 흡수 상태와 비흡수 상태 구분: 상태를 흡수 상태와 비흡수 상태로 나누어, 전이 확률 행렬을 블록 행렬로 분해합니다.
       
       - \( P \) 행렬을 다음과 같이 나누어 표현할 수 있습니다:
         \[
         P = \begin{bmatrix}
         Q & R \\
         0 & I
         \end{bmatrix}
         \]
         여기서, \( Q \)는 비흡수 상태 간의 전이 확률을 나타내고, \( R \)는 비흡수 상태에서 흡수 상태로 전이되는 확률을 나타냅니다. \( I \)는 단위 행렬로, 흡수 상태 간의 전이 확률을 나타냅니다.

    3. 기대 흡수 시간 행렬 계산: 평균 흡수 시간 행렬 \( N \)는 비흡수 상태에서 흡수 상태에 도달하는 데 걸리는 평균 단계를 나타내는 행렬입니다. 이 행렬은 다음과 같이 계산됩니다:
       \[
       N = (I - Q)^{-1}
       \]
       여기서 \( (I - Q)^{-1} \)는 \( I - Q \)의 역행렬입니다.

       - \( N_{ij} \)는 비흡수 상태 \( i \)에서 시작하여 흡수 상태에 도달할 때까지의 평균 단계 수를 나타냅니다.

     

    예시

    예를 들어, 두 개의 비흡수 상태와 두 개의 흡수 상태가 있는 마르코프 연쇄를 고려해 보겠습니다. 각 상태에서 흡수 상태로 전이되는 확률과 비흡수 상태 간의 전이 확률이 주어지면, 위의 방법을 통해 평균 흡수 시간을 계산할 수 있습니다.

    이론적으로, 평균 흡수 시간은 시스템의 동작을 이해하고, 특정 상태에서의 장기적인 행동을 분석하는 데 유용한 도구입니다.

    Attached file
    image.png 20.4KB 21
    이 게시물을..
    N
    0
    0
    • 세상의모든계산기 25
      세상의모든계산기

      계산기는 거들 뿐
      혹은
      계산기를 거들 뿐

    세상의모든계산기 님의 최근 글

    미래 AI의 세 번째 임계점: '자율 AI 에이전트'와 '효율성'의 만남 13 2025 11.06 AI 발전의 두 번째 임계점: LLM과 창발적 능력의 시대. written by gemini-2.5 12 2025 11.06 AI 발전의 첫 번째 임계점: GPU와 딥러닝 혁명. written by gemini-2.5 13 2025 11.06 적록 색약 보정 렌즈(안경) 를 컴퓨터로 시뮬레이션 해본다면? 95 7 2025 11.04 [ticalc.org 펌] Gamma & Zeta function +more. 감마 제타 함수 외 126 2 2025 10.29

    세상의모든계산기 님의 최근 댓글

    HP-39gII 에 ExistOS 설치하기 https://allcalc.org/38526   2025 11.07   1. 왜 검은색이 아닌 다른 색으로 보일까? (제공된 LUT 필터)     제가 제공해 드린 magenta_lens.cube LUT 필터는 540~560nm(녹색-노란색) 파장대의 색상을 '완전히 제거(검은색으로   만듦)'하는 대신, '다른 색상으로 왜곡/변환'하도록 설계되었습니다.    * 원리: LUT(Look-Up Table)는 특정 입력 색상(Input RGB)을 미리 정해진 다른 출력 색상(Output RGB)으로 매핑하는      테이블입니다. 이 LUT는 540~560nm에 해당하는 RGB 값들이 들어오면, 검은색(0, 0, 0)이 아닌, 매우 어둡거나 채도가      낮은 특정 색(예: 어두운 올리브색, 갈색 등)으로 변환하라고 지시합니다.    * 의도:        * 현실적인 물리 필터 시뮬레이션: 실제 고가의 색약 보정 안경도 특정 파장을 100% 완벽하게 차단하지는 못합니다.          빛의 일부를 흡수하고 일부는 통과시키거나 변환하는데, 이 LUT는 그러한 현실 세계의 필터 효과를 더 비슷하게          흉내 냈을 수 있습니다.        * 시각적 정보 유지: 특정 색을 완전히 검게 만들면 그 부분의 형태나 질감 정보가 완전히 사라집니다. 하지만 다른          어두운 색으로 대체하면, 색상 정보는 왜곡되더라도 밝기나 형태 정보는 어느 정도 유지되어 전체적인 이미지가 덜           어색하게 보일 수 있습니다.   결론적으로, 스펙트럼 그림에서 해당 대역의 색이 갑자기 '다른 색으로 툭 바뀌는' 현상은, LUT 필터가 "이 파장대의   색은 앞으로 이 색으로 표시해!"라고 강제적으로 지시한 결과이며, 이것이 바로 이 필터가 작동하는 방식 그   자체입니다.     2. 왜 'Color Vision Helper' 앱은 검은색으로 보일까?     비교하신 'Color Vision Helper' 앱은 노치 필터의 원리를 더 이상적(Ideal)이고 교과서적으로 구현했을 가능성이   높습니다.    * 원리: "L-콘과 M-콘의 신호가 겹치는 540~560nm 파장의 빛은 '완전히 차단'되어야 한다"는 개념에 매우 충실한      방식입니다.    * 구현: 따라서 해당 파장에 해당하는 색상 정보가 들어오면, 어떠한 타협도 없이 그냥 '검은색(RGB 0, 0, 0)'으로      처리해 버립니다. 이는 "이 파장의 빛은 존재하지 않는 것으로 처리하겠다"는 가장 강력하고 직접적인 표현입니다. 2025 11.06 적용사례 4 - 파장 스펙트럼 https://news.samsungdisplay.com/26683   ㄴ (좌) 연속되는 그라데이션 ➡️ (우) 540 이하 | 구분되는 층(색) | 560 이상    - 겹치는 부분, 즉 540~560 nm 에서 색상이 차단? 변형? 된 것을 확인할 수 있음. 그럼 폰에서 Color Vision Helper 앱으로 보면? ㄴ 540~560 nm 대역이 검은 띠로 표시됨. 완전 차단됨을 의미   2025 11.05 빨간 셀로판지로도 이시하라 테스트 같은 숫자 구분에서는 유사한 효과를 낼 수 있다고 합니다. 색상이 다양하다면 빨강이나, 노랑, 주황 등도 테스트해보면 재밌겠네요. 2025 11.05 안드로이드 앱 - "Color Vision Helper" 다운받아 본문 내용을 카메라로 찍어 보니,  본문 프로그램에서는 애매하게 보이던 부분에서도 구분이 완전 확실하게 되네요.    숫자 구분 능력 & 편의성 면에서 압도적이라고 할 수 있겠습니다.    2025 11.05
    글쓴이의 서명작성글 감추기 

    댓글3

    • Profile 0
      세상의모든계산기
      2024.10.17 - 20:09 2024.08.15 - 16:20 #45983

      파이썬 프로그램을 통한 검증


      Claude 3.5 Sonnet 

      import numpy as np
      
      def calculate_expected_attempts():
          # 전이 행렬 정의 (12강부터 18강까지, 18강은 흡수 상태)
          P = np.array([
              [0.7, 0.3, 0, 0, 0, 0, 0],
              [0.4, 0.3, 0.3, 0, 0, 0, 0],
              [0, 0.4, 0.3, 0.3, 0, 0, 0],
              [0, 0, 0.35, 0.45, 0.2, 0, 0],
              [0, 0, 0, 0.35, 0.45, 0.2, 0],
              [0, 0, 0, 0, 0.35, 0.45, 0.2],
              [0, 0, 0, 0, 0, 0, 1]  # 18강은 흡수 상태
          ])
      
          # 기본 상태 (12강)에서 시작
          initial_state = np.array([1, 0, 0, 0, 0, 0, 0])
      
          # 흡수 상태에 도달할 때까지의 평균 단계 수 계산
          N = np.linalg.inv(np.eye(6) - P[:6, :6])
          expected_steps = N.sum(axis=1)
      
          return expected_steps[0]
      
      # 시뮬레이션 실행
      expected_attempts = calculate_expected_attempts()
      print(f"18강에 도달하기 위한 평균 기대 시도 횟수: {expected_attempts:.2f}")
      
      # Monte Carlo 시뮬레이션을 통한 검증
      def simulate_enhancement(num_simulations=100000):
          total_attempts = 0
          for _ in range(num_simulations):
              attempts = 0
              current_level = 12
              while current_level < 18:
                  attempts += 1
                  rand = np.random.random()
                  if current_level == 12:
                      if rand < 0.7:
                          continue
                      else:
                          current_level = 13
                  elif current_level <= 14:
                      if rand < 0.4:
                          current_level -= 1
                      elif rand < 0.7:
                          continue
                      else:
                          current_level += 1
                  else:
                      if rand < 0.35:
                          current_level -= 1
                      elif rand < 0.8:
                          continue
                      else:
                          current_level += 1
              total_attempts += attempts
          return total_attempts / num_simulations
      
      simulated_attempts = simulate_enhancement()
      print(f"몬테카를로 시뮬레이션 결과 (평균 시도 횟수): {simulated_attempts:.2f}")

       

      18강에 도달하기 위한 평균 기대 시도 횟수: 212.02
      몬테카를로 시뮬레이션 결과 (평균 시도 횟수): 212.17

      댓글
    • Profile 0
      세상의모든계산기
      2024.09.04 - 08:00 2024.08.15 - 16:23 #45986

      위 과정을 행렬(matrix)로 나타내면, Markov 과정의 전이 행렬을 포함하여 상태 전이 행렬, 그리고 평균 도달 단계 수를 계산하는 방법을 설명할 수 있습니다. 

      구체적으로, 이 문제는 마르코프 체인의 흡수 상태에 도달하기까지의 평균 단계 수를 계산하는 것을 포함합니다. 이를 위해 필요한 주요 단계와 관련된 행렬은 다음과 같습니다:


      1. 전이 행렬 (Transition Matrix)

         전이 행렬 \( P \)는 상태 간 전이 확률을 나타냅니다. 문제에서 주어진 전이 행렬은 다음과 같습니다:

         \[
         P = \begin{bmatrix}
         0.7 & 0.3 & 0 & 0 & 0 & 0 & 0 \\
         0.4 & 0.3 & 0.3 & 0 & 0 & 0 & 0 \\
         0 & 0.4 & 0.3 & 0.3 & 0 & 0 & 0 \\
         0 & 0 & 0.35 & 0.45 & 0.2 & 0 & 0 \\
         0 & 0 & 0 & 0.35 & 0.45 & 0.2 & 0 \\
         0 & 0 & 0 & 0 & 0.35 & 0.45 & 0.2 \\
         0 & 0 & 0 & 0 & 0 & 0 & 1 \\
         \end{bmatrix}
         \]

       

      2. 기본 상태 (Initial State Vector)

         초기 상태는 12강 상태에서 시작하므로 초기 상태 벡터는:

         \[
         \text{initial\_state} = \begin{bmatrix}
         1 & 0 & 0 & 0 & 0 & 0 & 0 
         \end{bmatrix}
         \]

       

      3. 정방 행렬 (Fundamental Matrix) 계산

         흡수 상태를 제외한 전이 행렬의 하위 행렬 \( Q \)를 사용하여 정방 행렬 \( N \)을 계산합니다. 여기서 하위 행렬 \( Q \)는 전이 행렬의 흡수 상태를 제외한 부분입니다:

      \[   Q = \begin{bmatrix}
         0.7 & 0.3 & 0 & 0 & 0 & 0 \\
         0.4 & 0.3 & 0.3 & 0 & 0 & 0 \\
         0 & 0.4 & 0.3 & 0.3 & 0 & 0 \\
         0 & 0 & 0.35 & 0.45 & 0.2 & 0 \\
         0 & 0 & 0 & 0.35 & 0.45 & 0.2 \\
         0 & 0 & 0 & 0 & 0.35 & 0.45 \\
         \end{bmatrix} \]

       

         정방 행렬 \( N \)은 다음과 같이 계산됩니다:

         $   N = (I - Q)^{-1} $

       

      \[
      N = \begin{bmatrix}
      73.981481481481 & 52.986111111111 & 37.239583333333 & 29.062499999999 & 13.750000000000 & 5.000000000000 \\
      70.648148148148 & 52.986111111111 & 37.239583333333 & 29.062500000000 & 13.750000000000 & 5.000000000000 \\
      66.203703703704 & 49.652777777778 & 37.239583333333 & 29.062500000000 & 13.750000000000 & 5.000000000000 \\
      60.277777777778 & 45.208333333333 & 33.906250000000 & 29.062500000000 & 13.750000000000 & 5.000000000000 \\
      49.907407407407 & 37.430555555556 & 28.072916666667 & 24.062500000000 & 13.750000000000 & 5.000000000000 \\
      31.759259259259 & 23.819444444444 & 17.864583333333 & 15.312500000000 & 8.750000000000 & 5.000000000000 \\
      \end{bmatrix}
      \]

         여기서 \( I \)는 단위 행렬입니다.

         \[
         I = \begin{bmatrix}
         1 & 0 & 0 & 0 & 0 & 0 \\
         0 & 1 & 0 & 0 & 0 & 0 \\
         0 & 0 & 1 & 0 & 0 & 0 \\
         0 & 0 & 0 & 1 & 0 & 0 \\
         0 & 0 & 0 & 0 & 1 & 0 \\
         0 & 0 & 0 & 0 & 0 & 1 \\
         \end{bmatrix}
         \]
       

      4. 평균 도달 단계 수

         평균 도달 단계 수는 정방 행렬 \( N \)의 각 행의 합으로 계산됩니다.

       

       첫 번째 행의 합 (12→18 평균 기대 강화 횟수) ≒ 212.02
      \[
      73.981 + 52.986 + 37.24 + 29.063 + 13.75 + 5 ≒ 212.02
      \]

       두 번째 행의 합 (13→18 평균 기대 강화 횟수) ≒ 208.69

       세 번째 행의 합 (14→18 평균 기대 강화 횟수) ≒ 200.91

       네 번째 행의 합 (15→18 평균 기대 강화 횟수) ≒ 187.2

       다섯 번째 행의 합 (16→18 평균 기대 강화 횟수) ≒ 158.22

       여섯 번째 행의 합 (17→18 평균 기대 강화 횟수) ≒ 102.51

      댓글
    • 1
      Profile 0
      세상의모든계산기
      2024.08.15 - 18:13 2024.08.15 - 17:44 #45996

      TI-nspire 에서 구현


       

      08-13-2024 Image001.jpg

      08-13-2024 Image002.jpg

       

      Attached file
      markov_chain_18_gang .tns 2.7KB 13 08-13-2024 Image001.jpg 76.4KB 16 08-13-2024 Image002.jpg 90.9KB 17
      댓글
    • 댓글 입력
    • 에디터 전환
    댓글 쓰기 에디터 사용하기 닫기
    • view_headline 목록
    • 14px
    • 목록
      view_headline
    3
    × CLOSE
    전체 수학 64 확률통계 18 공학 13 물리학 2 화학 3 생물학 재무금융 10 기타 2
    기본 (0) 제목 날짜 수정 조회 댓글 추천 비추
    분류 정렬 검색
    등록된 글이 없습니다.
    • 세상의 모든 계산기 수학, 과학, 공학 이야기
    • 세상의모든계산기
    • 사업자등록번호 703-91-02181
    • 세모계 all rights reserved.