第二年的線上顯微鏡年會 ── M&M (Microscopy and Microanalysis) 2021 Virtual

M&M是美國最大的顯微鏡年會,每年都會辦在全美各大城市,是顯微鏡領域的年度盛會,也有自己的同名期刊。今年是我第四次參加,由於Covid-19疫情依然在全球蔓延,主辦在四月就宣布今年的M&M也一樣會在線上舉辦 (#MM2021Virtual),不然原本有機會去探訪賓州的匹茲堡 (Pittsburgh)。會議日期雖然是8/1-5,但只要報告者同意,大部分的內容都可以取用直至9/7 (事實上到現在都還是可以正常存取)。對於M&M的簡介可以去看我之前的文章 (美國最大的顯微鏡年會 ── M&M (MICROSCOPY AND MICROANALYSIS) 2020 VIRTUAL),我將簡介一下這兩次會議的差異之處,再分享我關注的領域現況以及與會心得。


第二年線上會議有什麼地方不一樣?

M&M 2021 Virtual入口網站
M&M 2021 Virtual入口網站

一整年的疫情導致線上會議需求暴增,各種相關工具也迅速推出佔領市場。第二年的介面比起第一年變化不少,有些地方改良的不錯而有些地方則變得有點可惜,雖然這可能只是因為換了一個承包商的模板,但還是列出一些我覺得好的改進與值得改進的地方,相關人員如果看到可以做為日後辦線上會議的參考。

  1. 前一年的Discussion board/流水牆被拿掉了,變得沒辦法即時看到哪裡有有趣的討論,我覺得非常可惜。
  2. Poster session 多了Poster wall的功能,快速篩選想看/有趣的poster很方便
  3. Presentation影片旁的Discussion跟Question兩個功能定位不明,要進行討論/問問題應該只需要一個就夠了。而且依然沒有新增Tag功能 (@發問者),這樣即使回覆了也沒辦法立刻通知發問者,只能仰賴發問者自行回來查看,很不方便。
  4. 播放品質有顯著提升,去年會議期間只要碰上當地的白天,影片載入都非常慢,這次可能是有特別投資網路設備。
  5. Platform session networking由Zoom meeting改成類似gather town的形式,這點大加分! Zoom meeting把一群人強迫塞進一個會議裡會變成幾乎只能輪流發言,也不能開小視窗個別討論。但這次改用Spatial Chat,讓你可以自由操控自己的頭像Avatar去接近任何人展開討論,或是想要低調地保持一段距離偷聽也可以。而且因為所有Session networking都是同時開始,所以可以從Spatial Chat的介面裡快速切換到其他session的networking lobby,對於要快速找人方便非常多。
  6. 改成Spatial Chat後的一個缺點是人數很不均。因為人員流動太容易,而且你可以實時看到哪一個room裡面人比較多,變得大家似乎更傾向去找人多的room湊熱鬧/找人,導致不同networking session之間的人數變得很兩極,人多的room可以有50人,人少的room只有3-4人。
Poster Wall可以很快速地略讀每篇poster,很接近實際conference的體驗但是不需要穿越人群


Presentation影片頁面,右邊的Discussion/Question欄非常陽春

Spatial Chat的範例,每個人麥克風的音量隨人物間的距離遞減,所以除了聽到離自己最近的人的討論以外,也可以聽到附近的人的聲音,跟真實世界的討論一樣。右邊可以切換不同的room,並且看到room裡面有誰再決定要不要切換。

整體來說,第二次線上會議的體驗比上次好一些,尤其是將Zoom meeting改成Spatial Chat確實讓Networking的體驗變好很多。之後若繼續使用線上會議的形式,希望能將Discussion的部分改得更人性化一點並增加tag與通知功能。

今年有什麼有趣發表或趨勢?

我一樣只分享我關注的幾個領域包括4D-STEM, machine learning, open software。如果對與會publication有興趣的人可以直接去Cambridge University Press的網站裡面看,連結置於此處。

  • 4D-STEM的硬體快速普及
比起去年,4D-STEM的熱度有增無減,但一大趨勢是硬體的迅速普及除了最早引起風潮的EMPAD (後來被Thermo Fisher Scientific收購)以外,JEOL(4D Canvas)、Gatan (K2, K3)、Dectris ELA、Direct Electron (Celeritas)、LBNL (4D Camera)也各自建立了自己的擅場,接連發了非常多的paper去拓展4D-STEM的應用範圍。Paul Voyles做了一些定性比較,對於想要進軍4D-STEM的人或許很值得參考。

Paul Voyles比較UWM的新detector(與DE合作)與其他4D-STEM detectors的差異

對於4D-STEM detector來說,有非常多的關鍵參數需要注意。最基本的就是Frame rate,也就是每秒可以採集幾張diffraction pattern,這直接決定了你的dwell time可以設多快,越快的acquisition其spatial distortion就越小,同樣acquisition time可以放更多probe position,分析更大的Field-of-view。再來就是dynamic range,例如ptychography就需要有足夠大的dynamic range去記錄BF disk裡面的資訊,dynamic range不夠大的detector就沒辦法做。另外pixel size與number也很重要,因為一般買設備會想盡量滿足多個用途,Gatan的K2, K3本身也是很好的in-situ TEM camera,因此足夠大的pixel number對於TEM mode很重要。而且多一點pixel也可以提升diffraction pattern裡的angular resolution,對NBED-based strain mapping很有用。

  • 4D-STEM的效率問題需要「軟硬兼施」
隨著Frame rate普遍上升,4D-STEM很快會碰到兩個效率問題,一個是硬體,一個是軟體。硬體問題在於如何迅速將data轉移到合適的儲存媒介裡,軟體問題在於如何有效分析採集到的巨量data。關於硬體該如何設置的問題,可以參考LBNL的Peter Ercius在2021 PARADIM給的talk。而軟體方面該如何增進分析效率則是第二大趨勢,也理所當然地成為了今年大家的發表重點。(畢竟這也是舉目所及比較好著手的點)


在眾多軟體面的奇技淫巧中,我覺得比較值得一提的是Electron Event Representation (EER)。相對於一般detector在每個pixel裡面存入intensity的值,EER改採為記錄哪些pixel有收集到電子。因為當frame rate高到一定程度後,大部分的pixel其實都沒有收集到電子,即使收集到電子,同一個pixel要收到高於一顆電子的機率也很低。因此改成記錄哪些pixel有收集到電子可以大幅縮減檔案尺寸,進而加速後續的演算法處理,可以提升40-100倍效率。對EER有興趣可以參考這篇文獻。今年Mary Scott group的postdoc Dr. Peter Pelz示範了使用EER可以實現Real-time ptychography,提供即時回饋之餘也使得相關實驗更容易執行。

另一個軟體面的熱門研究方向就是使用Machine learning等技術去處理或分析4D-STEM data,主要目標是加速後續的分析。例如Dr. Renlian Yuan使用ANN去快速辨識NBED的crystal tilt以及用CNN去進行NBED disk的center detection,這兩個參數在strain mapping有相當重要的影響。Marcel Schloz想利用Reinforcement learning去實現ptychography的adaptice scanning以增進採集效率。Chuqiao Shi使用Unsupervised learning (divisive hierarchical clustering)進行diffraction data的預分類,根據dataset的不同,其產生的feature subgroup也不同,需要自己賦予物理意義,但是很適合用於快速分析。

  • 4D-STEM的實驗設計與分析手法逐漸豐富
除了前述的兩大趨勢,4D-STEM作為一個通用概念(在每個2D probe position採集所有角度的散射電子),其觸角逐漸被延伸到不同的實驗設計與分析手法,突破了以往幾乎只有Nanobeam Electron Diffraction (NBED)或Convergent Beam Electron Diffraction (CBED)的框架,真正地充實了內涵。

以實驗設計為例,David Muller group的postdoc Dr. Yu-Tsun Shao應用了Scanning CBED內的Kikuchi band去減少crystal tilt的影響,得以更精準地量測polarization以研究Skyrmion;University of Warwick的Richard Beanland提出了D-LACBED,結合了precession與CBED,採集出富含試片資訊的美麗繞射圖譜,可以用於Structual refinement;University of Erlangen-Nürnberg的Mingjian Wu提出全新的操作模式Scanning Confocal Electron Diffraction (SCED),可以用更低的電子劑量去取得近乎平行束的繞射圖譜,在空間解析度不變的前提下,大幅提升相對於NBED的角解析度(angular resolution),在特定場合具有很大的應用潛力。

SCED藉由2-10 微米的大量defocus增進dose efficiency,同時將spot pattern投射到影像面上以增進angular resolution


在分析手法上則有UIUC的Prof. Jian-Min Zuo將Cepstral STEM imaging應用至defect imaging,以及Univisity of Monash的Prof. Joanne Etheridge提出的Symmetry-STEM。Cepstral STEM將NBED分為Crystal與diffuse scattering兩個部分,藉由diffuse scattering去成像defect的位置,還能同時分析defect的local symmetry。 Symmetry-STEM則是考慮了CBED pattern的各種對稱性,對每一張CBED pattern計算了一個Symmetry score,用這個Symmetry score成像可以輕易達成atomic resolution,對試片厚度、加速電壓、原子亦非常robust,唯獨對crystal tilt非常敏感。

  • Ptychography被應用至thick sample
Ptychography今年最重磅的進展應該屬David Muller group的postdoc Dr. Zhen Chen發表的Multislice ptychography。Electron Ptychography自從2018年的Nature paper突破繞射極限後一鳴驚人,接下來幾年發展非常迅速。2020年提出了Mixed-state ptychography處理coherency問題,更在今年2021引入multislice,一舉突破了原先只適用於thin sample的限制,朝通用的imaging method更進一步。由於ptychography同時重建了Object function與Probe function,引入multislice相當於解出整個樣品的三維atomic potential,是具有一定縱深解析度的(few nm)。另外他們仔細檢視重建後的phase image,宣布其影響解析度的最大因素已經不再是顯微鏡本身,而是原子本身的震動。(註: 臺灣有些新聞誤解為能解析/看到原子的震動,但那是錯誤的。)

Multislice ptychography解決了Thick sample的問題,進一步推進解析度極限


Electron ptychography作為一個新興的顯微鏡技術,還有許多發展空間。例如如何提升multislice ptychography的縱深解析度 (depth resolution)、如何提升整體演算法重建的效率、如何擴大可分析區域(Field-of-view)等等。而技術能否被大多數人使用取決於其「易使用性(accessibility)」。以DPC/iDPC為例,當Thermo Fisher將DPC/iDPC內建於其影像軟體Velox後,任何人都可以直接使用,還可以即時顯示重建的影像。4D-STEM技術隨著硬體發展,遲早會變得跟現有的ADF-STEM一樣快,每一個probe position可能只需要10us或是更快。到時候的運算資源與演算法能不能支撐我們「即時」地觀看4D-STEM所帶來的豐富資訊就成為了最大的挑戰與機會。當4D-STEM或multislice ptychography成為常態,我們該拿它們看哪些sample、去解決什麼樣的材料問題?

Benedikt Haas介紹Nion Swift的新Live processing功能,可以15000 fps的速度從4D-STEM data中顯示Virtual ADF, ABF, CoM等等

  • 持續摸索Machine learning 於Electron microscopy的應用
除了4D-STEM相關的ML應用以外,比較重要的當屬ORNL的Maxim Ziatdinov進一步推廣他們的Python package AtomAI,這依然是距今最完整、最好入門的ML on EM package,即使僅做為學習用途也非常實用。其他零星列舉一些報告例如Technical University of Denmark的Jakob Schiøtz想使用CNN從3張不同defocus的HRTEM影像重建Exit-wave function;James LeBeau group的Michael Xu試著用Reinforcement learning去自動化顯微鏡調機的流程;ORNL的Dr. Yueming Guo示範了Unsupervised learning於defect identification的表現。

整體來說少了那種讓人耳目一新的感覺,比起4D-STEM的持續升溫,ML在Electron microscopy的應用似乎是碰上了一些瓶頸。雖然有很直觀的應用例如defect identification或是aberration correction,自動化(automation)一些瑣碎的工作很有用,但對於科學研究總感覺搔不到癢處,最大的問題或許在於缺乏直觀/嚴謹的物理解釋,所以無法當作理論推演的核心部件。目前看來ML就像是一把多功能的工具,可以根據使用情境去替換掉一些繁瑣的步驟或是只能近似的函數。可是如果想要達成data -> ML -> 有用的physical property,始終都必須面臨accuracy、precision、與通用性的問題,在那之上還有「為何ML有用?」的機制問題需要探討。利用ML去發掘EM data裡各種hidden information依然是個很美好的理想,但看來需要更多創意與時間投入才有可能開花結果。但若稍微放寬應用範圍,ML在property prediction以及materials selection就有很強勢的優點,可以提供實驗與計算無法匹敵的速度優勢。

會後心得

雖然沒能參加實體會議真的很可惜,但也因為線上會議才使得大家能最小化染疫的風險,舒舒服服地在室內開會分享研究進展,也才有機會悠悠哉哉地花一個多月把想看的talk都欣賞一遍,還寫成文章分享給大家。

做為一個技術宅,很大的滿足感來自於學習並應用新的技術。但這幾年逐漸意識到空有技術不足以產出知識,修練了一身屠龍之技卻無龍可屠並不是稀奇的事情。在把注意力放回到材料系統的同時,也不斷提醒自己要關注研究領域的big picture。大家現在在處理哪些問題、我們現有的技術極限到什麼程度、現有研究的脈絡是從何處開始,又要往哪裡前進? 

常有人說PhD的價值在於突破現有知識的邊界,即是make a dent。那麼要抵達這個邊界就必須要先知道自己的所在位置,以及現有邊界的位置。比起發出去的paper或是新學到的技術,這兩年最大的收穫其實是這種綜觀的視野,橫跨學術研究的時間與空間。雖然偶爾會覺得同領域的人都是競爭者,但是面對浩瀚無垠的未知以及短暫的學術生命,能夠參加conference並且跟同好交流還是讓人很欣慰,至少知道自己不是一個人在奮鬥。老話一句,「一個人走得快,一群人走得久。」

留言

熱門文章