- 세상의 모든 계산기 자유(질문) 게시판 일반 ()
알파고 ELO Rating 이 4500??



사진 출처 :
http://test.pgr21.com/pb/pb.php?id=humor&no=269200
http://gall.dcinside.com/board/view/?id=baduk&no=137040&page=5
http://www.lifein19x19.com/forum/viewtopic.php?f=18&t=12922
https://www.zhihu.com/question/41780229
David Silver yesterday gave a lecture at UCL, which refers to the ELO ratings AlphaGo, where chess with Shishi version (v18) actually has up to 4500 points, allowing the arm with Fan chess that paragraph AlphaGo (v13) four sub . ELO rating is the score http://goratings.org on the current world chess Ke Jie was the first person to 3615 points - the points difference Elo rating represents the corresponding winning percentage, 800 points, then the difference between winning percentage is 100%, the difference between 677 if winning is 99%. Shishi learned this after watching scores of the fourth set, with no set up (?) Cherish the AlphaGo labeled bug state, is really not easy.
중국어 -> 영어 구글 번역
- Nature v13 = 판후이와 대국했던 시절(네이쳐 논문발표) 버전의 알파고
- v18 = 이세돌과 대국한 버전의 알파고 (하드웨어 동일?)
- v18 의 기력 측정은 Nature v13 과 4점 접바둑을 통해 측정한 기력
댓글6
-
세상의모든계산기
출처 : http://www.bbsdigest.com/thread/index?bid=87&tid=31270999
I'm a PhD student in Computational Neuroscience/Machine Learning who attended a talk today at UCL by David Silver, lead author on the AlphaGo Nature paper: http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html Although unfortunately I didn't take any pictures, I can confirm he did show us some slides on AlphaGo's evaluation functions and how their assessment of the probability of winning changed during the course of each match.
Since I heard there was some interest about whether the game is balanced in its initial state, I looked carefully at the initial intersection with the y-axis, corresponding to the point at which no moves had been played. I can confirm that according to the Value Network's assessment, white has an initial probability of winning bigger that 50%, my guess being 53% (the scale used a 25% interval and so was very hard to read). By contrast, the Monte Carlo rollout had what looked like an almost exact 50-50 assessment. Although AlphaGo uses both assessments, David Silver said that the Value Network is in general more accurate and is thus more highly weighted in the latest versions of AlphaGo. So it's fair to say AlphaGo thinks white (with 7.5 komi) has a small advantage.
Also, one other interesting tidbit is that according to Deepmind's internal assessment, AlphaGo's ELO was much, much bigger than Lee Sedol's (above 4000 iirc). However, David Silver acknowledged that he didn't really trust their internal assessment as AlphaGo was only playing versions of itself by reinforcement learning, and so may have been completely unaware of surprising strategies which can beat it. Which is why they had to play Lee Sedol in those exciting matches (and indeed, according to their internal ELO they probably would have expected 5-0 not 4-1)
Hope you find this interesting anyway, I sure did!요약
- 알파고 가치망에서는 덤7.5집일 때 백이 약간이나마 유리하다고 평가
- 알파고 ELO 4500 은 간접측정이라 신뢰성이 부족.
-
세상의모든계산기
구글 번역 사이트가 인공신경 지능망으로 업그레이드 되었다고 합니다. (2016-11-16)
그래서 위의 영문을 번역시켜 보았습니다.저는 Computational Neuroscience / Machine Learning의 박사 과정 학생으로서 AlphaGo Nature 논문의 수석 저자 David Silver가 UCL에서 오늘 연설을했습니다 : http://www.nature.com/nature/journal/v529/n7587/full /nature16961.html 불행히도 사진을 찍지는 않았지만 AlphaGo의 평가 기능에 대한 슬라이드와 각 경기가 진행되는 동안 우승 확률에 대한 평가가 어떻게 달라지는 지 확인할 수있었습니다.
게임이 초기 상태에서 균형을 이루는 지에 대한 관심이 있다고 들었으므로 움직이지 않는 지점에 해당하는 y 축과의 초기 교차점을주의 깊게 살펴 봤습니다. Value Network의 평가에 따르면 흰색은 초기 확률이 50 % 이상인 것으로 나타났습니다. 내 생각에 53 % (25 %의 눈금을 사용했기 때문에 읽는 것이 매우 어려웠습니다)입니다. 대조적으로, 몬테카를로 롤아웃은 거의 정확한 50-50 평가처럼 보였습니다. AlphaGo는 두 가지 평가를 모두 사용하지만 David Silver는 Value Network가 일반적으로 정확하고 AlphaGo의 최신 버전에 더 가중되어 있다고 말했습니다. 그래서 AlphaGo는 흰색 (7.5 komi)이 작은 이점을 가지고 있다고 생각한다고 말하는 것은 공평합니다.
또한, 흥미로운 또 하나의 재미있는 점은 Deepmind의 내부 평가에 따르면 AlphaGo의 ELO가 Lee Sedol (4000 iirc 이상)보다 훨씬 크다는 것입니다. 그러나 David Silver는 AlphaGo가 강화 학습을 통해 버전을 재생하기 때문에 내부 평가를 실제로 신뢰하지 않았기 때문에이를 극복 할 수있는 놀라운 전략을 전혀 알지 못했을 수도 있음을 인정했습니다. 그래서 그들이 흥미 진진한 경기에서 Lee Sedol과 경기를해야했던 이유입니다. (실제로 내부 ELO에 따르면 그들은 아마도 5-0에서 4-1로 예상했을 것입니다)
어쨌든이 재미있는 것을 찾으시기 바랍니다.와우... 인상적이네요.
-
세상의모든계산기
참고 : 한국기원 기사 랭킹제도
https://www.baduk.or.kr/record/ranking_info.asp- 승률 기대치 = E(d) =
- 조정되는 점수 =
K=16,
α=0.8=패자에게만 주어지는 위로점수? (디플레이션 방지 목적)
* 가중치
예선 본선 결승전(도전기) 1등급 기전 1.5 2.3 3.0 2등급 기전 1.3 1.9 2.5 3등급 기전 1.0 1.5 2.0 제한 기전 및 특별 대국 1.0 1.0 1.5 * 임시점수 : 대국 숫자가 적은 선수는 임시점수제도를 통해 점수 부여
-
세상의모든계산기
절예 // 가중치 개선 진행중?
카타고 (18*384nbt) // 가중치 개선 진행중
카타고 (60*320)
카타고 (40*384)
카타고 (40*256)
카타고 (30*256)
카타고 (20*256)
알파고 제로 (40*256, 40일)
릴라 제로 #272 (40*256)
미니고 v17 (20*256)
미니고 v16 (40*256)
알파 제로 (20*256, 36시간)
엘프고 v2 (20*256)
알파고 제로 (20b, 3일)
알파고 마스터
인간 프로 기사 GOAT
알파고 리 (=인간 프로 기사 최상급)
인간 프로 기사 현역
알파고 판
기준 : 블럭*채널, 가장 강한 가중치 버전
직접 대국하지 않은 것이 많아 추정일 뿐임.
https://www.reddit.com/r/baduk/comments/hma3nx/unified_elo_rating_for_ais/
위 글을 기본으로 작성한 순위표임. / SHKD13 작성https://github.com/breakwa11/GoAIRatings#go-ai-ratings
기본적으로는 여기서 많이 가져온 듯 하고,
알파고와 비교할 수 있는 것은 엘프고 개발자의 멘트가 중요했던 듯 싶음.
세상의모든계산기 님의 최근 댓글
V2 갱신 (nonK / K-Type 통합형) 예전에는 직접 코드작성 + AI 보조 하여 프로그램 만들었었는데, 갈수록 복잡해져서 손 놓고 있었습니다. 이번에 antigravity 설치하고, 테스트 겸 새로 V2를 올렸습니다. 직접 코드작성하는 일은 전혀 없었고, 바이브 코딩으로 전체 작성했습니다. "잘 했다 / 틀렸다 / 계산기와 다르다." "어떤 방향에서 코드 수정해 봐라." AI가 실물 계산기 각정 버튼의 작동 방식에 대한 정확한 이해는 없는 상태라서, V1을 바탕으로 여러차례 수정해야 했습니다만, 예전과 비교하면 일취월장 했고, 훨씬 쉬워졌습니다. 2026 02.04 A) 1*3*5*7*9 = 계산 945 B) √ 12번 누름 ㄴ 12회 해도 되고, 14회 해도 되는데, 횟수 기억해야 함. ㄴ 횟수가 너무 적으면 오차가 커짐 ㄴ 결과가 1에 매우 가까운 숫자라면 된 겁니다. 1.0016740522338 C) - 1 ÷ 5 + 1 = 1.0003348104468 D) × = 을 (n세트) 반복해 입력 ㄴ 여기서 n세트는, B에서 '루트버튼 누른 횟수' 3.9398949655688 빨간 부분 숫자에 오차 있음. (소숫점 둘째 자리 정도까지만 반올림 해서 답안 작성) 참 값 = 3.9362834270354... 2026 02.04 1. 분모 먼저 계산 400 × 10000 = 100 × 6000 = GT 결과값 4,600,000 역수 처리 ÷÷== 결과값 0.00000021739 2. 분자 곱하기 ×3 00 00 00 ×4 00 ×1 00 00 최종 결과 = 2,608,695.65217 2026 02.04 해결 방법 1. t=-1 을 기준으로 그래프를 2개로 나누어 표현 ㄴ 근데 이것도 tstep을 맞추지 않으면 문제가 발생할 것기도 하고, 상관이 없을 것 같기도 하고... 모르겠네요. 2. t=-1 이 직접 계산되도록 tstep을 적절하게 조정 tstep=0.1 tstep=0.01 도 해 보고 싶지만, 구간 크기에 따라 최소 tstep 이 변하는지 여기서는 0.01로 설정해도 0.015로 바뀌어버립니다. 그래서 tstep=0.02 로 하는게 최대한 긴 그래프를 얻을 수 있습니다. 2026 02.02 불연속 그래프 ti-nspire는 수학자처럼 연속적인 선을 그리는 것이 아니라, 정해진 `tstep` 간격으로 점을 찍고 그 점들을 직선으로 연결하는 'connect-the-dots' 방식으로 그래프를 그립니다. 여기에 tstep 간격에 따라 특이점(분모=0)이 제외되어 문제가 나타난 것입니다. seq(−2+0.13*t,t,0,23) {−2.,−1.87,−1.74,−1.61,−1.48,−1.35,−1.22,−1.09,−0.96,−0.83,−0.7,−0.57,−0.44,−0.31,−0.18,−0.05,0.08,0.21,0.34,0.47,0.6,0.73,0.86,0.99} t=-1 에서 그래프를 찾지 않습니다. 그 좌우 값인 −1.09, −0.96 두 값의 그래프값을 찾고, Window 범위를 보고 적당히 (연속되도록) 이어서 그래프를 완성하는 방식입니다. 그래서 t=-1에서도 그래프 값이 존재하는 것입니다. 2026 02.02