2017年5月1日 星期一

法無定法

何元普,晚清人物,是個讀書人,英法聯軍火燒圓明園時投筆從戎,任北京總理外城巡防,負責保衛京師,被譽為“戎馬書生”。後因在官場發展不如意,42歲左右憤而“劈炮唔撈”,過着財務自由唔駛do的令人艷羨生活,整天跑到寺廟裡與和尚談禪論詩,於是他的文才武功也就變得鮮為人知,反而是他在四川新都寶光寺留下的兩句話,一直被人傳誦至今,就是那副天下名聯:

  世外人法無定法然後知非法法也
  天下事了猶未了何妨以不了了之

池某是在大學寫作班教授印發的notes裡第一次看到這副對聯,頓時把平仄對仗等賞析標準忘記得一乾二淨,而被其超脫的意境深深震動,至今難忘。

上文談到翻譯,真是不敢想像Google translate會把“法無定法”、“非法法也”譯成怎樣的笑話,池某倒是想起一句頗合其意思的英文,“The only rule is no rule”。亦可見擺脫教條主義條條框框的約束、突破傳統的思維限制,是古今中外皆然的人類智慧。

接回上文再從機器翻譯談起,有別於傳統利用語法規則作處理的做法,Google translate是“非法法也”地只使用了一個很簡單的統計語言模型。池某在一篇文章中看到,“事實證明,統計語言模型比任何已知的借助某種規則的解決方法都有效。在Google的中英文自動翻譯中,用的最重要的就是這個統計語言模型。美國標準局(NIST)曾對所有的機器翻譯系統進行評測,Google的系統不僅是全世界最好的,而且高於所有基於規則的系統很多。”

這篇文章的作者為吳軍博士,曾擔任 Google Research的資深研究員,在 Google 主要的貢獻包中日韓搜索算法,Google Anti -Spam的創始人,且是中日韓搜索部門的創始人。吳軍博士曾發表一系列談及以數學方法解決信息學問題的文章,後來集結成《數學之美》一書。


書裡深入淺出地介紹了很多處理海量、複雜信息的奇招妙法,令人嘆為觀止。例如以隱含馬可夫模型(Hidden Markov Model)解決語音識別,又如最有效的新聞分類方法竟是中學的數學知識Cosine Law。而最令小賭徒池某精神為之一振的,是那篇對最大熵(Maximum Entropy)模型的討論。最大熵,名字看起很可怕,原理卻很簡單,就是保留全部的不確定性,將風險降到最小。

解決不確定性,把風險降到最小,是每一個賭徒、投資者難以抗拒的誘惑。然而,雖然數學家早已證明了,對任何一組不自相矛盾的信息,這個最大熵模型不僅存在,還是唯一的,且是以簡單的指數函數形式存在,但要實現最大熵模型卻很複雜,計算量龐大。

吳軍博士寫道,80年代,很有天才的Della Pietra兄弟在IBM對最大熵模型的算法作了很大改進,但90年代初他們就退出了學術界,到金融界大顯身手。他們兩人和很多IBM語音識別的同事一同到了一家當時不大,但現在是世界上最成功的對沖基金公司Renaissance Technologies。“我們知道,決定股票漲落的因素可能有幾十甚至上百種,而最大熵方法恰恰能找到一個同時滿足成千上萬種不同條件的模型。Della Pietra兄弟等科學家在那裡,用最大熵模型和其他一些先進的數學工具對股票預測,獲得了巨大成功。”

池某查了一下網上資料,1989年到2009年間,Renaissance Technologies的大獎章基金平均年回報率高達34%,較同期標普500指數年均回報率高20多個百分點,比索羅斯和巴菲特同期的操盤表現都高出超過10個百分點。即使是在次貸危機爆發的2007年,該基金的回報率仍高達85%。

語音識別、機器翻譯,與股票投資看起來是風馬牛不相及、大纜都扯唔埋的事情,操作方法竟然可以互通使用,算得上是“法無定法”、“非法法也”的最佳印證了。

105 則留言:

  1. “Renaissance Technologies”冇issue common stocks可買賣,真可惜呢。

    回覆刪除
    回覆
    1. 連Medallion Fund也早就沒有外界投資者了,只剩Renaissance Technologies的員工分肥。真正的投資秘技都是只能低調自享的,沒有分享、公開授課那回事。

      刪除
    2. 比著我都唔會同人分享,一傳十,十傳百,個個都賺錢,咁邊個輸。

      刪除
    3. 所以那些聲稱能教人贏錢的,傻瓜才會信。

      刪除
    4. 對呀,池兄自私在沒有每晚提供孖膽投注真飛,也沒有於每場賽馬開跑前提供EO; 池兄只是孤寒地開post詳談基礎理論,建立model的每一細節,分享自己撞板經驗,使大家行少好多冤枉路。

      仲有,池兄超有耐性回答重複又重複的提問。池兄就是會分享賺錢方法的那位,十個人,百個人分薄了盈利仍毫不吝嗇賜教,這樣的胸襟,自問沒有百分之一。

      我覺得池兄您才是傻瓜。我向你致敬。

      刪除
    5. 慚愧。
      回到寫blog的初衷,本來就是很個人的筆記,實在沒必要把自己每天吃了什麼屙了什麼都list出來。
      至於一些理論的問答,其實可以很自私地視為一個反複說服自己的過程。

      刪除
  2. 第一眼睇"Entropy"呢個字覺得好熟,原來自己計過.

    回覆刪除
    回覆
    1. 咁厲害?Maximum Entropy有時計算量好大,一粒CPU計唔掂,要用到parallel computing。

      刪除
    2. 池兄誤會左我意思,我只計過d basic Entropy 數

      刪除
    3. 呀!sorry,誤會左。
      就算係計Maximum Entropy,現在應該冇以前咁痛苦,家而CPU強勁左好多,下下都可以靠暴力解決,不過池某始終覺得用parallel computing將個matrix劈開一舊舊計完再砌返較有美感。

      刪除
    4. 賭人鐘情用GPU暴力解決XD

      刪除
    5. 池某係maths佬,鐘意parallel computing多D。哈哈。

      刪除
    6. 搞到最後要去AWS/甲骨文 等公司租伺服器,先夠暴力。

      刪除
    7. GPU運算好食ram,尤其是display 的ram,GB計的資料其實好少,租伺服器是遲早的事,池老玩吓就明;另一方法,係自己追hardware ....

      刪除
    8. 呵呵。池某並非暴力愛好者。

      刪除
  3. 我以為是CHEM。。。
    池兄,名聯下一句又繼續講落去喎,不了了之是最好。

    回覆刪除
    回覆
    1. 好似近physics多D,算啦,無謂深究,不了了之好了。XD

      刪除
    2. 所有科學分支探其根本都是physics。前一陣子先用Dirac嘅一段話開chem major朋友玩笑。

      The underlying physical laws necessary for the mathematical theory of a large part of physics and the whole of chemistry are thus completely known, and the difficulty is only that the exact application of these laws leads to equations much too complicated to be soluble. It therefore becomes desirable that approximate practical methods of applying quantum mechanics should be developed, which can lead to an explanation of the main features of complex atomic systems without too much computation.

      刪除
    3. the whole part of chemistry haha

      刪除
    4. 咁你咪好快就掌握所有科學?

      刪除
  4. 「把抽象的思考加以形象化,轉化為能夠以邏輯進行轉換的精確概念。」這是在下對「數學」和「運算」的個人理解。

    所以數學作為思考上的工具,在所有涉及思考的領域,數學也能夠派上用場。而越需要大量或者複雜以至既大量又複雜的思考,則越需要甚至必需要以數學來推算。

    這也是在下一直認為,永遠保持精確運算的電腦,終將超越人類思考的原因。

    回到翻譯上,其實語言本來就不是經由邏輯發展而來,而是約定俗成的。而且這個「俗」還不是單一的俗,而是多個俗,然後這些俗又在發展中各自結合或者獨立分化,最終形成似是有法可依又包含各種歧義的語言系統。

    不過,在下認為只要經過大量統計,其實最終還是可以「溯源」。

    比如漢字就有說文解字歸納出來的「六書」一說,機器翻譯的目標,則是以相同概念追溯出語句原意,再以另一系語言的規則,構成一句新的、語言不同又意義相同的語句。

    快餐人上

    回覆刪除
    回覆
    1. 相反呢,現在機器翻譯所做的,正是要拋棄所有語言規則,以純概率計算取代。

      刪除
    2. Google近日推出的那個類神經云云翻譯,正是以大量統計來找出「意義」概率。不過在下措詞出咗問題,其實在下說機器翻譯找出原意再組合出別語言語句,其中的「原意」、「意義」,對機器來說仍然只是一組數據,機器本身沒有去「理解」。

      能夠真正做到「理解」,已經是強人工智能的領域,現在距離還很遙遠,不過那個遙遠也並非遙不可及。

      快餐人上

      刪除
    3. 換言之,找出「意義」概率越準確,用於股價的預測也會越準確,太可怕了,叫小散戶怎麼活?

      刪除
    4. 量化投資。

      睇落越難,越快比電腦取代。

      快餐人上

      刪除
    5. //比電腦取代
      咁就真係唔駛do了,想do都冇得do。

      刪除
  5. 有一个问题想请教一下博主。我自己的step1 model有大概20多个有效参数,可是到了combined model之后step1 model就会变得不显著了。我用另一组数据测试模型的R-square,发现combined model的比赔率的还低。所以想请教一下step1的模型要大概有多少个有效参数才能使combined model比赔率的要好。

    回覆刪除
    回覆
    1. 要超過30個有效參數,alpha和beta的比例才大致相若。要alpha保持大過beta,需要超過40個有效參數。

      刪除
    2. 还想请教一个问题。我最近看了不少关于赛马的的学术文章,发现有人用其他模型来代替step1的MLR model,例如SVM,random forest,lasso等等。不知道博主对新的模型或者算法有没有什么研究呢?

      刪除
    3. 池某有留意下lasso等,但談不上有研究。model的轉變牽一髮動全身,除非logit model不再贏錢,才會有動力尋找新出路。

      刪除
  6. 谢谢解答。最近自己在尝试将别人paper里面的算法用R语言写出来,看看能不能找到比MLR更好的模型。

    回覆刪除
    回覆
    1. 未必係模型本身問題呢,data的處理影響很大。

      刪除
    2. Yes, data handling are more important

      刪除
  7. 想跟大家分享一下我自己MODEL ,看看跟你們下注的差別大不大,
    第一場依注碼大小順序, 1 5 8 6 7

    回覆刪除
  8. 回覆
    1. 這場5號最後有19倍要買但最後輸入只15倍沒發現......

      刪除
  9. 8場2 12 5 4 11 9

    全日只中一場 9.5倍,,....全日仍要輸不少, 不知是否買了太多冷門...這場買最大反而是兩次九十幾倍及過百倍...

    回覆刪除
    回覆
    1. 似乎池某的成績好少少呢。不過今晚都係贏唔到錢,最和味係贏隻「魔連奴」,最慘重係輸隻「勁飛聖」。

      刪除
    2. 竟然連2.2倍的莫雷拉也能計出有利? 我買的基本極少有10倍以下

      刪除
    3. 2.x倍不算罕見,1.8倍以下就很少能計到。

      刪除
    4. My model for wed night did spot out winners and 2rd or 3th with Ok values but still not winning much and guess need to improve money management skills:

      R1). 11, 5,4
      R2). 5,7,8,11
      R5). 5,10,3
      R6). 9
      R7). 2,6,11,7
      R8). 1,4,11,6

      For 1200m, my model indicates speed for first 400m and last 400m are critical factors. For 1650m, last 600m speed seems to be critical.


      刪除
    5. 咦?與池某的計算頗有出入,不過池某幾隻重注馬都跑第二,無利可圖。

      刪除
    6. yes, guess Mr. 池 mostly focusing on wet bets using Kelly's. How about using those "good values" horses as bankers for Q/QP?

      刪除
    7. 池某一直解決不了的難題:整體效果Q比WIN總是差一些,PLACE又比Q差一些,QP最差。

      刪除
    8. Yes, selection of good value horses are not difficult if using your well established model but how to yield a better return by using different combination of win, q and T pools are really challenging.

      It seems the "horse betting" professor mainly profit from Place pools...anyway, need to spend more time on HOW to bet now provided the market has become more efficient than previous years with more and more professionals entering the market.

      刪除
    9. 是的。傳統的Harville和Stern等轉化方法並不理想,比起獨贏都要打些折扣,可能「賭馬教授」找到了更有效的方法。

      刪除
    10. 因為E(X)嚴格來講是機率的平均數, 每個E(X)的VAR(X)都不同. 所以每計多步, 個Var(X)就會增加.
      其實E(X)是帶單位的. 你用E(X)= X%WIN, 去計算E(X)=X%QIN, 當然時差一些啦. 而且WIN/QIN是離散型,其運算的局限性又增加了難度.
      所以我覺得用WIN既EV去化QIN既EV係邏輯性有問題. 雖然結果的形態上好相似, 但要從中賺取差價, 講求是精確率, 差價是+-數, 誤差比率是X/數. 不計都會知結果..

      刪除
    11. 對的,正是河馬所說的情況。這是以獨贏概率去計連贏、位置概率的理論缺陷。
      另一個做法是獨立地計算各個名次的概率,但也一個問題很難克服,例如一面倒的大熱門有可能得出位置賠率小於1倍。

      刪除
    12. Yes, 河馬's logic is correct. May be I should ask....how you bet Q or T? or only focus on win bets?

      刪除
    13. 賭多隻WIN就得於賭 買既馬同唔買既馬既比率再除以抽水, 如果買既馬佔彩池3成投注. 都還有2倍, 再買多D至40%, 就真係賭P好過. 我覺得一定要去Q/T/四連那方面發展. 因為浪費注碼多, 差價大.

      刪除
  10. 有點似笑傲江湖所說的, 手中無劍,心中有劍;劍意比劍招重要,手無束膊才是最高境界

    回覆刪除
    回覆
    1. 可能是因為有了先入為主的招式,而令人不斷以固定的模式生搬硬套,反而扼殺了創意。

      刪除
  11. 池兄你好,很難得在互聯網上有這麼好的技術資訊分享.
    我本身是個賽馬愛好者,一些有採集一些賽馬DATA自樂同時作研究,實戰成績不太理想.
    由於英文程度同學歷很低,所以一直知道MLR MODEL存在,亦試過在網上看書等,但實在很難明白.
    我想先請問一個入門問題,如果不會用VBA,純粹用EXCEL的功能,其實可否弄出一個MLR MODEL呢? 如果可以, 我才從這邊入手研究
    PS : 我全部DATA都存EXCEL的
    謝謝
    小蝦米上

    回覆刪除
    回覆
    1. 一個可操作的賭馬系統不只是一個計算的model,應包括以下這些:
      1.從舊data中計算出有效參數。
      2.把找到的有效參數fit到排位表,計算出EO。
      3.結合EO與即時賠率計算最優的注碼分配。
      4.把賽果update到資料庫。

      其中,2和4是搬資料和簡單計算,Excel就能做到,但用VBA效率會高些。
      3就是Kelly calculator,不用VBA也能做到,但要處理即時賠率,下注時可能會手忙腳亂。
      1就是MLR,其中做regression部份用Excel和VBA都做不到,要用專業的統計軟件SAS或SPSS。

      刪除
    2. 感謝你的回覆,流程我是明白的.
      令人困苦的是我手上有大量DATA,但不會計算出EO.
      現在忙於看YOUTUBE學統計學影片,但只能是先弄清一些符號原理.
      距離有能力用SPSS,看來還很遠....
      如果我只須管理DATABASE中的資料, 有一個MODEL或PROGRAM能計算出EO就最好,
      (1) 請問巿面上有這樣的東西嗎?
      (2) 還是請個人來寫較直接
      其實我也是喜歡抱學習的態度,但有實物去調轉學番理論,我較易吸收
      謝謝
      小蝦米上

      刪除
    3. 講得難聽啲,database只係一堆垃圾。Data的處理正是一個將垃圾變成寶、真正產生價值的過程。EO的準確程度端賴data的完整程度和處理data的功力,而非某個model或program,市面上也不可能有可以adapt任意data的model或program,即使請人來寫,也要解釋得清楚以何種途徑處理data、如何建立模型、有效參數的準則及怎樣計算EO才行。

      刪除
    4. 好的. 那心中大慨明白了. 實在太謝謝, 那我只能不急的慢慢學.
      database是垃圾也沒什麼錯,所以現今資訊是多了,但公眾能否運用才是重點.
      賭馬 - 由兩個字組成,一個是賭字,一個是馬字,職業集團老板甚至數學教授可能完全唔識馬,用一堆data有效地去賭一樣可以贏.
      如果一個人能有一定程度的識"馬",又學會"賭"的方法,那類人才是天下無匹之輩.

      刪除
    5. 賭馬是一個捕獵與被獵的遊戲,不需要要求自己成為大鱷的,不要做食物鏈最底層那個就OK了。

      刪除
    6. Professional betting syndicate runs like a company with different posts and a number of professionals. It is difficult to beat them even yourself working full time on horse betting. I think in addition to the statistical skills, need to read more books on horse handicapping to enhance the knowledge of horse racing so that you know hat kind of data are critical to find the capable horses in a race.

      刪除
    7. PP兄你好,
      小弟英文真的不好,不過中文還可以,而且思想還夾雜些老中國陽明學派:知行合一。 基於做賽後評估,我實在已無時間再看more books on horse handicapping,其次是海外書本未必適用於香港賽馬模式.
      不過我對賽馬資料十分敏感, 你上面曾提到 For 1650m, last 600m speed seems to be critical.
      你是如何知道L600的SPEED,(或者說L600的TIME更切合吧) ?

      刪除
    8. //如何知道L600
      嘻嘻。PP兄應該係自己睇片打錶。
      PP = Professional Player

      刪除
    9. Yes, I did 打錶 to get sectional time and have been doing before jockey club announced sectional time for each horse couple years ago. But the official sectional time results do not have the time for the sections I want such as the speed for last 200m.

      I am not professional player and have my own full time job. But I have made horse betting as my main investment profolio, just like other people investing on stocks, foreign currencies, etc.

      Yes, understand it is already no time to read books after 做賽後評估 and overseas books may not be suitable for the racing pattern in HK. However, I always find new ideas after reading these books or papers and my results also have been improved..

      刪除
    10. //I always find new ideas after reading these books or papers
      法無定法然後知非法法也

      刪除
    11. 感謝兩位大大回應.
      BOOKS是工具,當然有用,像上學讀中英數,是日後成長的有效工具.
      不過我較喜歡互動,ideas由互聯網來對我衝擊較大,比如這里的資訊及討論, books較單向.
      賽後評估主要是工作量超多,暫時我腦里有很多想法要實驗,正所謂"格物明得",雖然手上沒有一個model,但我看賽績的方法是公式化,格了自然知道一些資訊套入現今公式得唔得.... anyway,天份不高,將勤補拙是好方法, 但大家都是勤力人,這個是事實.
      謝謝兩位, 天道酬勤.
      小蝦米

      刪除
  12. 另外想問問池兄,
    在你的Model,在未有考慮賠率因素前,
    第四場的智者,是否你model中的first choice?
    小蝦米上

    回覆刪除
    回覆
    1. 唔係。first choice係「塑料喜」。所以呢場要輸錢。

      刪除
  13. 一場輸錢不代表什麼.
    我自己也投注了「塑料喜」,
    這場形勢較簡單, 塑料喜+智者是A,B餐的選擇
    塑料喜 賽績較智者低,但有好檔位
    智者 賽績較塑料喜佳,有好騎師,但檔位較下風.
    不過both A OR B 水平顯示連貫......
    1st, 2nd choice 應不離一二選. 當然買分頭較佳那匹是最佳選擇.
    凱旋星光 水平低好多,賣點只是騎師,檔位中等.....
    池兄,
    (1) 我是想知道「智者」在你的賠率排列中排第幾? 想比較一下.
    (2) 你是有添加賠率因素在模型中,但我的觀點是如果自己買左下去就會移動個賠率, 那賠率因素還是模型中不是有問題嗎? (你現在不能移動賠率只是本金太少,只要模型合理,移動彩池是理所當然的遲早之事)
    (3) 既然已有模型,那模型的First four choices的水平又係咪高於四大熱門呢?|
    有空的話,不妨告知,謝謝.
    小蝦米

    回覆刪除
    回覆
    1. 1.「塑料喜」較突出,跟住「智者」、「幸運神威」[又一隻喘鳴症:( ]、「甜統」、「凱旋星光」相若。
      2. 加入賠率,即two step model,並不是用來處理打郁賠率問題。其出發點是即使one step model中考慮了上百個因素,也可能有遺漏,才將賠率當成是綜合了所有未知因素的一個參數。如果one step model的參數(alpha)夠多夠強,咁賠率這個參數(beta)會越縮越細。
      3.沒有統計過四大熱門,但池某model的alpha明顯高過beta好多,對頭馬的評估應仍是有利。

      刪除
    2. My model for this race is:

      12,1,2,8

      Predict pace will be Fast (first 800) Fast (400) Slow (last 400) and thus #2 will be eliminated as it can't be lead or will be weaken then it would giving up to run... so, final selections are 2,1,8...and then no. 8 is not really have an edge then bet 1,2 for win but win edge was reduced a lot as #1 win odd has been dropped a lot in last 2-3 minutes. So betting, Q, T and 四重彩 accordingly.

      刪除
    3. sorry typo,final selection is 12,1,8 as 2 was eliminated.

      刪除
    4. 池某個model仍有不足之處,現時的計法會對#12這類馬高估左少少。不過要等到暑假才可以改,涉及到重編database,工程量較大。

      刪除
  14. Cc. 塑料喜智者都是前三選,已很切合。
    幸運神威就不明白,當然池兄的model自有佢原理。
    至於,喘嗚症,其實我地study及運用的賽果已包括在內,像流鼻血,有人造馬拉馬,甚至不幸的跛腳#so sad for佳龍駒。
    這些事沒有特定發生在指定馬身上,而賽績亦早已反映,何必介懷。
    謝謝你的分享

    回覆刪除
    回覆
    1. 沒有介懷「幸運神威」。第四場是輸在「塑料喜」較多,「幸運神威」的注碼很「濕碎」。
      「佳龍駒」那場,池某係一注獨贏「詠彩繽紛」,居然還是被綠格黨搶劫,對呢隻介懷多一o的。

      刪除
  15. Yesterday only focusing on #1 in Race 10 as I think 1 to 5 win odd is really incredible as this horse I think was outstanding among other contenders in this race.

    回覆刪除
    回覆
    1. 呢隻用時間計出較突出,用名次計則屬於易位難贏。

      刪除
  16. 想問版主如果用一定場數做底找到一些有效參數,但再增加了若干場數後,有些原本有效的參數卻變了不顯著,是出了什麼問題?正常嗎?
    如果是正常,那豈不是在場數不斷增加的同時,有效參數也要不停的重新找?

    回覆刪除
    回覆
    1. 開始時不宜用太少場數,場數太少容易受random因素的干擾,更大的問題是會miss一些有效參數。

      刪除
    2. 以版主經驗,最少要用幾多場打底先不會出現這種情況呢?
      一定要像benter說的最少1000埸嗎?

      刪除
    3. 池某建議再多少少,有2000場左右,會相當穩定,多幾十場或少幾十場對參數的影響不大。

      刪除
    4. 謝版主
      再想問新馬要如何處理,見過版主說直接用賠率當勝率,這點本人明白,但當要做紀錄時要怎樣做?
      一場馬14隻有2隻新馬,做紀錄時新馬各個參數如何輸入?還是只要輸入一個constant估計數就當係?

      刪除
    5. 即係將expected odds直接用real odds代替。
      做紀錄時輸入什麼並不重要,最重要是可以清楚識別出來且所有新馬要保持一致。

      刪除
    6. 本人做法是紀錄時作個大約中位數俾新馬

      刪除
    7. 關鍵是要保持一致,未知的部份,不能作到新馬A和新馬B不一樣。

      刪除
  17. 港大通過取消「天文」、「數學/物理」兩個主修科
    難道現今香港選修數學真的沒有出路了嗎?

    回覆刪除
    回覆
    1. 路是人行出來的,少左人揀呢條路來行都係事實。

      刪除
  18. 其他系我不知,搞數學系是 為了愚民政策吧?學習數學知識是離開貧窮的正確道路。

    回覆刪除
    回覆
    1. 好似係取消左major in mathematics/physics呢科,仍可major數學或物理,或double major呢兩科,或major一科minor另一科。

      刪除
  19. 今天的新馬一出即勝,臨場還要落重飛,其實到底有什麼辦法可以計到一隻咩數據都冇既馬而去落重飛成條穿勻呢?

    回覆刪除
    回覆
    1. 將expected odds直接用real odds代替,跑隻「天下為攻」出來至少唔使輸。

      刪除
    2. 呢個我明白池兄所言,我想問的是我們這些小戶當然只能看賠率做事,但大戶跟集團又靠什麼去計隻「天下為攻」計到可以落重飛呢?

      P.S 今日韋達真是騎得衰到冇人有,隻海都巨星影都冇

      刪除
    3. 細節就唔清楚了。不過結合試閘、馬房(急進)、血統(兄弟馬今季隻隻贏過)等因素,呢隻係熱得有道理的。
      韋哥而家好錫身,落雨天唔使預佢會用力騎啦。

      刪除
    4. 池兄以上所提的因素,我們一般人有沒有途徑可以取得呢?

      刪除
    5. 這些馬會網站都有,只是處理起來頗煩。

      刪除
    6. 是阿,試閘晨操血統真不知如何量化

      刪除
    7. 係,工作量太龐大,諗下都覺得煩。

      刪除
    8. 有個網站有血統數值,其實有沒有用呢?

      刪除
    9. 要放入model睇下統計指標先知有冇用。

      刪除
  20. 池兄MODEL內有冇試閘晨操的参數?

    回覆刪除
    回覆
    1. 冇。
      池某係懶人,只用可以copy and paste的data,不用需要人手輸入的。

      刪除