黑洞图片的背后,是图像处理技术的成熟!

前言: 就在昨天,人类历史上第一张黑洞图像被“拍”出来了。

请配戴眼镜查看高清大图

尽管黑洞的第一张真身照是一张模糊、不规则的圆环,但这张照片的背后凝结了目前最先进的探测技术,整个过程历时十余年,动用了来自非洲、亚洲、欧洲、北美洲和南美洲的200多名研究人员,八个探测望远镜不分昼夜观测,最终的这张图像也有可能获得诺贝尔奖。

这一切成就,都离不开视界望远镜和背后的计算。

人类“拍”到的第一张黑洞照片,并不是像我们拿手机拍照那样,点下屏幕就好,而是需要分布在全球各地的许多天文望远镜在同一时间“按下快门”,记录无线电数据。

然后,再依靠机器学习算法,把数据拼到一起,重建出图像。

图片的形成过程:

其实拍摄这些图片来自智利、夏威夷、南极洲、亚利桑那、西班牙、墨西哥六个地方的一共八台天文望远镜。天文望远镜获取的数据量非常大,然而这些数据里面不仅仅包含黑洞,还包含天空中的各种复杂、凌乱的数据,科学家们要靠这些数据,拼出一张完整的黑洞写真。

2017年4月5日,由位于南极、智利、墨西哥、美国夏威夷、美国亚利桑那州、西班牙的8台亚毫米射电望远镜同时对黑洞展开观测,利用甚长基线干涉测量技术(VLBI)将这8台望远镜构建成超级“虚拟”望远镜——视界面望远镜(EHT),EHT口径13000公里,约等同于地球直径。

处理照片:

其实,天文望远镜早就拍完了照片,而“洗照片”的过程长达两年。为什么“洗照片”时间如此之长?

因为这类观测的数据处理并非只用一套现成的方法。多台望远镜之间的钟差、望远镜自身状态随时间的微小改变等问题都会影响观测精度。另一方面,“拍照”对象黑洞本身也在不断变化,科学家需要探索新方法对“相机”进行校准,建立模型,以提升合成图像的质量和精度。

本来,根据天文望远镜数据还原天体图像,用成像算法即可。

然而面对PB级稀疏、嘈杂的数据,想靠人力从中找出图像太难了。于是,科学家们使用了机器学习方法。

图像处理经常被处理成反问题,什么是反问题:

考虑正问题f=Au+n,n是观测噪声,反问题就是在有了观测f的条件下怎么获得真实图片u

如果A是一个恒同算子,反问题就是去燥

如果A是一个模糊,反问题就是去模糊

如果A是一个CT,反问题就是CT恢复

在将算法之前说一下这个问题意义,打个比方你要做核磁共振,你要绑在床上听着快一个小时噪声,那么你就希望A这个算法进行sample 次数变少,那么如果我算法更厉害,你mri时间会越少。

有人说,这个问题简单

就好了,那么如果A不可逆呢? 你说这个也简单,最小二乘啊

,那么你就是没有考虑到n--观测噪声

考虑一个去模糊问题,如果有噪声,直接求逆结果会是怎么样的呢?

噪声在求逆的时候无数倍的被放大了,产生了棋盘一样的artifact 那么怎么解决问题呢?加入正则项!

这里的R的作用时 如果u不是“图片”,那么R值大一点 如果u像一张图片,R的值小一点 数学家就花了很久来构造R,第一个成功的是total variation,定义为

那么我们用到的这个算法是什么样的呢: 对于simulate数据

用了total variation的效果是

为什么呢,为了达到这个分辨尺度,根据测不准原理,他们需要整个地球半径的天文望远镜。但是事实上我们造不出来这么大的望远镜,只能用九个观测站点的数据来做。这是一个高度不适定的反问题,那么需要更好的正则项。 设计正则项他们用到的想法是学习

From Learning Models of Natural Image Patches to Whole Image Restoration

他们用高斯混合模型对图片patch进行建模,学习出图片patch的distribution作为上面问题的正则项。

ted talk里面还将到他们用了多个数据集去学习,用日常图片,宇宙照片,望远镜数据。。学习出来了很多个正则项,发现恢复出来的图片都是这样的图片。

其实看到这里,我们已经是很震惊了,原来霍金的黑洞论真实存在,我们人类还宇宙面前真的很渺小。但是随着科技的不断发展,我们人类也会认识更加深入的宇宙。