第一次用entropy證明Kruskal–Katona就上手

讓我們從以下這個相當基本的問題開始:

問題:如果一張圖有m條邊,它最多有幾個三角形?

聰明的讀者肯定知道,如果所有邊團起來,那三角形應該要最多,所以我們有以下的定理:

定理:(Lovasz版本的Kruskal–Katona)如果你有\binom{u}{3}個三角形,那你至少有\binom{u}{2}條邊。

(這個定理也在joints出現,有興趣的讀者請見:joints)

而實際上我們也能用Shannon entropy證明這件事,關於entropy的基本定義與一點點性質可以參考:彩虹三角形note。那我們開始吧!

首先,我們均勻隨機的選一個三角形,並均勻隨機的把頂點排序,得到三個隨機的頂點(X,Y,Z),令x=2^{H(X)},y=2^{H(Y|X)},z=2^{H(Z|X,Y)}。跟entropy不熟的同學直覺上可以先想成x說的是你有"多少"可能的第一個頂點,y說的是你知道第一個頂點後平均有"多少"可能的第二個頂點,z說的是你知道前兩個頂點後平均有"多少"可能的第三個頂點。(這裡的"多少"並不是單純的算個數,而是得看隨機變數的"資訊含量")

而這樣做的好處是我們可以證明:

  1. xyz=有序三角形個數=u(u-1)(u-2)
  2. xy\leq 有序邊數=2m
  3. x\geq y+1\geq z+2

第一條用前面的直覺不難理解,就是說你三格分別有幾種選法乘起來就會得到總數,而實際上它就只是entropy的uniform bound。第二條同理,因為(X,Y)一定會形成一條有序的邊,但它不一定是均勻隨機的,所以這裡我們只有上界。第三條的直覺也不難,說的就是假設你知道第一個有幾種選擇,第二個不能跟第一個重複,所以會少一種選擇,也就是x\geq y+1,後半段同理。實際的證明需要取random variable X,Y的mixture,有興趣的可以自己試試看,或是參考我跟眼皮的paper:https://arxiv.org/abs/2307.15379

那有了這些資訊,我們就可以證明xy\geq u(u-1)(這是一題簡單的競賽不等式題,自己證XD)。加上第二點定理就得證了。

而在最近放上arXiv的這篇paper(https://arxiv.org/abs/2410.04744)中(故事等等講XD),我學長子超就問說:那我如果一樣知道有那麼多的三角形,我能不能知道\sum_{v}\deg(v)^{1.5}至少是多少呢?(注意到1.5換成1的話這個和就是2m,也就變回上面的問題了)

而我們發現如果用entropy這件事也不難做到,用上面的資訊加上下面這個額外的觀察即可:

  1. xy^{1.5}\leq \sum_{v}\deg(v)^{1.5}

綜合以上資訊,我們就可以證明xy^{1.5}\geq u(u-1)^{1.5}(這是一題難一點點的競賽不等式題XD)。加上第四點我們就可以知道\sum_{v}\deg(v)^{1.5}\geq u(u-1)^{1.5}

而這個結論也是緊的:注意到一個u個頂點的完全圖中有\binom{u}{3}個三角形,而此時\sum_{v}\deg(v)^{1.5}= u(u-1)^{1.5}

然而,當1.5換成任何超過2的數字的話,就是另一個故事了(另一個競賽不等式(#))。

細心的讀者可能會發現,上面提到的這篇跟子超的paper其實是第二版,然後如果點進arXiv上的第一版會發現我不在作者list上XD。實際上呢,這個問題是子超帶著兩個大學生做的研究,然後他們第一版放上arXiv當天晚上,我就看著他們paper想說,這個問題好有趣喔,但我看著證明用到了相當多fancy的不等式技巧,我就想說先自己想想看。知道我研究style的人都知道,我很不願意去讀/理解各種技術含量很高的證明,我喜歡簡短的概念。於是我就從半夜十二點看到這篇paper開始想了好一段時間,就發現我們可以用上面的觀察4.加上一些酷酷的不等式證出來。於是我把證明傳給子超然後子超就提議把我加進去然後把證明改寫,就得到現在這個產物XD。

整件事唯一的受害人大概就是眼皮的好多個citation被我弄成self-citation,因為這篇cite了好幾個我跟眼皮的paper OAO。

發表留言