研究グループ
同じ目的をもった研究者とグループを作って研究を行っています。 ICEPPの石野研、奥村研、澤田研、寺師研のメンバーはもちろんのこと、 ICEPPを超えたATLAS日本に所属する研究者や大学院生と研究・開発を行っています。

以下は田中研究室で進めている研究の内容になります。 一人がすべての内容を行うのではなく、どれでもいいので自分に合うものを見つけて本気で研究しましょう。 リストアップされていなくても、素粒子実験に関わることであれば新しい研究を開始することも可能です。 また、情報が古くなっている可能性もあるので、興味があれば、是非コンタクトしてください。

データ解析 「エネルギーフロンティア実験の醍醐味である「発見」を軸に様々な物理テーマの研究」
「標準理論を超えた物理を目指して」
我々人類が築き上げてきた素粒子「標準理論」は非常に優れた理論です。
スピン0であるヒッグス粒子の存在がものの見事に実証されたことは驚きでありました。 しかしながら、この標準理論にはまだまだ物足りない点があるため、多くの物理屋はこれを最終理論とは考えていません。 実験をやっている研究者・研究チームとして、標準理論で説明できない現象を実験で発見することを目指しています。 LHCの開始前にはLHCで簡単に発見できると考えていた思惑は見事に外れ、「どうにかその兆候をLHCのデータの中から」と日々研究を行っています。 「標準理論」は我々が越えなければいけない大きな大きな「壁」として我々の前に立ちはだかっている、そんなイメージです。

「ヒッグス物理」
標準理論への精度の高いインプットというより、標準理論を超えた物理のヒントを掴むために精密測定を行います。 標準理論を超えた物理を垣間見る最もチャンスのある測定のひとつであり、 独立した2つの実験「ATLAS」と「CMS」で同じズレが観測できればより確信をもつことができます。

「精密測定と発見」
現在g-2測定で4シグマより大きなズレが見えていますが、 このズレへの解釈・印象は物理屋によって違うように見えます。 精度の高い測定を評価しつつ、どこかにまだ標準理論を超えられない壁を感じている物理屋も多いと思います。 これは精密測定での発見がいかに大変か、ということを示唆しているようにも見えます。 何十年後に振りかえれば当たり前のような解釈も「今」は断定できない、そういう結果のひとつかもしれません。 「ヒッグス物理」の精密測定もこのカテゴリーに分類されると思いますが、 先に述べた複数の独立した実験があることや測定量そのものが複数あることから ズレを多角的に評価できるため、自信をもって標準理論を超えた物理へアクセスできるかもしれません。 最後はやってみないと分からないので、我々はこれから10年以上かけてこの精密測定に挑みます。

「直接"観る"こと」
精密測定も「観る」ことですが、やはり新粒子を直接「観る」ことは最も説得力のある実験結果です。 ヒッグス粒子の発見も後者です。 多くの標準理論を超えた物理では新粒子が予言されているので、その存在をはっきりと捕えることは なんらかのブレイクスルーであり、LHCでこのような現象を発見できると期待しています。 ヒッグス粒子も多くの理論では標準理論と異なって複数のヒッグス粒子の存在を予言しています。 この粒子をATLAS実験で探してみようと研究を進めています。
また、標準理論を超えた物理の中でも超対称性理論は魅力的な理論だと個人的には思います。 この超対称性粒子を発見する研究も進めています。(もちろん、この理論でも複数のヒッグス粒子が存在します。)

機械学習、人工知能、量子コンピュータの応用、計算機リソースの拡張
「人工知能」
SFの世界にあるような人工的な知能、ロボットを生み出してみたいと考えている研究者はたくさんいると想像します。 このSFの世界への到達はまだ時間を要すると(個人的には)考えますが、 一方で、昨今のChatGPTという対話型AIやDiffusion Modelを使った画像生成AIなどの成果には考えさせられることも多くあります。 もしかすると「人間」の知能を生み出せる時代が本当に来るのかもしれません。

「機械学習」
素粒子実験の中には「機械学習」が多く用いられ、その勢力はますます拡大しています。 すでにデータ解析における信号事象と背景事象の分類、ジェットの識別問題(これも分類)などで多くの研究成果があります。 これからは、より高度なジェット、電子・光子、荷電粒子の再構成、ジェットの識別や生成、異常検知による新粒子・新現象の発見などを、 最新の機械学習技術、たとえばトランスフォーマやグラフネットワーク、生成モデル、微分可能なプログラミング技術を駆使して研究開発します。

「量子コンピュータ」
Googleはすでに量子超越とされる報告を行っていますが、納得できない研究者も少なくないと想像します。 我々はNISQ時代の量子コンピュータで「真」の量子超越できるアルゴリズムを見つけ出すための研究を進めます。 アルゴリズム開発のみならずハードウェア開発まで、さまざまな研究を素粒子センターでは実践できます。

「計算機リソースの拡張」
大型の素粒子実験には非常に多くの計算機リソースが必要となります。 ただの計算機の寄せ集めでは研究が成立しないのも事実で、素粒子センターが持つ計算機群はWorld-wide LHC Computing Grid (WLCG)という 国際コラボレーションの枠組みで運用されています。こういった大きな計算機リソースの運用効率の改善等の研究開発も進めています。 オンプレミスの環境にある計算機リソースだけでなく、スパコン(HPC)やクラウドのリソースの活用なども進めています。

検出器アップグレード 「LArEMカロリーメータのL1トリガーを改善するための研究開発」
「ハドロンコライダー実験」
ATLAS実験は陽子と陽子を衝突させる、いわゆるハドロンコライダー実験のひとつです。 多くの陽子・陽子の衝突が実現可能なため、観測したい粒子が含まれる事象=シグナル事象の頻度が高くなって面白いのですが、 一方であまり重要でない物理現象=バックグラウンド事象も増えます。 残念ながら、バックグラウンド事象はシグナル事象より何桁も多く生成されます。 たとえば、ヒッグス粒子は2000兆回の陽子・陽子の衝突で約50万個生成されました。つまり、2000兆-50万はバックグラウンドです。 実際の実験では、2000兆事象すべてのデータを保存することは技術的にできない上、 そもそも物理的価値のない事象を保存することはリソースという観点からも避けるべきことです。 ATLAS実験のデータサイズは大体1.5Mバイトぐらいなので、2000兆事象すべて保存すると3,000,000PB(ペタバイト)にもなります。 実際はデータを瞬時に見て面白いかどうか判断して取捨選択して、これを10万分の1ぐらいにしています。 この取捨選択することをトリガーと言います。

「トリガー」
実際に保存できるデータ量は1秒間に約1000事象です。これが現システムの限界です。 ATLAS実験が開始された当初は陽子・陽子の衝突頻度が低かったため、単純な条件で事象をトリガーしても このデータ保存量条件をクリアしつつ重要な物理事象もすべて保存できました。 ところが、陽子・陽子の衝突頻度が高くなると、シグナル事象自体はまだまだ問題ないのですが、 トリガー条件をクリアするバックグラウンド事象が増えるため、全体としてデータ保存量条件を満たすことができなくなります。 データ保存量条件を満たせないならそれを満たすことができるまでトリガー条件を厳しくします。 この繰り返しにより、問題のなかったシグナル事象自体も徐々にトリガー条件をクリアできなくなります。 トリガーはデータを瞬時に判断する必要があるため、最終的に行うデータ解析より粗いデータしかアクセスできません。スピードが重要! したがって、トリガー条件を厳しくするということは、シグナルとバックグラウンドの区別する条件を増やすというより、 今ある条件を単純に厳しくすることになります。たとえば、エネルギー条件を10GeV高くすることになります。 このエネルギー条件の変更はシグナル事象を比較的容易に捨ててしまう変更のひとつで、我々としてはできる限り避けたい条件変更です。

「アップグレード」
技術の革新により、10年前にはできなかったことが今ではできることは多々あります。 トリガーに使われている技術もそれに該当し、スピードを保持しつつより複雑なトリガー条件を課すことが可能になりました。 より正確には可能にできる技術は存在するということです。 我々実験屋はこれを実際の実験に応用するため、検出器のアップグレードと呼ばれる計画を立てます。 たとえば、ある検出器は放射線耐性の限界から交換を余儀なくされます。 当然、この交換計画では以前よりは耐放射線が優れている技術が使われます。 トリガーでも、技術的(かつ金額的)に読みだすことのできなかったデータ量を今の技術なら可能になっています。

「信号処理」
LArEMカロリーメータの信号は陽子・陽子の衝突の間隔より長い形をしています。 具体的には陽子・陽子の衝突の間隔は(最小で)25ns、LArEMカロリーメータの信号は800nsぐらいあります。 そのため、信号の上に信号が重なっているという現象があり、その頻度は陽子・陽子の衝突頻度が高くなるにしたがって増えることになります。 このような重なりをパイルアップと呼びます。
LArEMカロリーメータの信号はバイポーラー読み出しで、エネルギーの大きさに依らず信号の形は相似形のよう(縦方向のスケールのみ)になります。 現行のシステムでもこの性質を最大限に活用してカロリーメータに落としたエネルギーを測定していて、 信号は800nsぐらい続くのですが、始めの数点、たとえば4点(75ns)だけ見れば後のことは分かるという具合です。 こういった計算方法をフィルタリングと呼び、このアルゴリズムをFPGAに実装して実際のデータ取得のためのトリガーに利用します。

「FPGAファームウェアの開発」
FPGAのファームウェアの開発にはこれまでVHDLやVeilog HDLなどのハードウェア記述言語(Hardware Description Language, HDL)を使ってきました。 この流れと並行して、現在はC/C++言語ベースのFPGAファームウェア開発(High Level Synthesis, HLS)も徐々に発展しており、 すでにHDLを用いて人間が開発したファームウェアより優れたファームウェアが開発できる事例も耳にします。 ここでいう「優れた」というのは、たとえば、少ないリソース量で同じ動作を実現することです。 こういった新しい開発プラットフォームを用いたファームウェアに取り組んでいます。

〒113-0033 東京都文京区本郷7-3-1 東京大学 理学部1号館西棟10階
素粒子物理学国際研究センター 田中研究室   田中 純一
E-mail Junichi.Tanaka@cern.ch
TEL 03-3815-8384   FAX 03-3814-8806