Un agujero negro es uno de los objetos celestes que fue intuido desde hace mucho tiempo por los científicos, pero del cual nadie tenía confirmación al respecto.

La razón parece ser sencilla: si tenemos un objeto súper masivo, con una gravedad inmensamente grande al grado tal que ni la luz puede escapar, lo que tendremos es una especie de «estrella» oscura, aunque en términos modernos podríamos estar hablando de una discontinuidad en el espacio-tiempo de la cual hay mucha especulación pero en donde no se puede saber a ciencia cierta lo que ocurre en este fenómeno. Y si es una estrella oscura, negra como el espacio, simplemente no veríamos nada, aunque sí podríamos detectar su influencia gravitacional, que no pasaría desapercibida.

La primera imagen de un agujero negro muestra un halo de polvo y gas, que rodea el impresionante hoyo negro, en el corazón de la galaxia Messier 87, que está a unos 55 millones de años luz de la Tierra. Fue capturada por el Event Horizon telescope (EHT), el cual es en realidad una red de 8 radiotelescopios, localizados desde la Antártica, asando por España y Chile, en un esfuerzo de trabajo de unos 200 astrónomos y científicos.

Pero los datos registrados por los radiotelescopios debían ser analizados y procesados para ver si se podía concluir qué había en los mismos y si de ellos se podría hacer una foto como la que ahora conocemos. Hay que decir que los datos de la red de radiotelescopios funciona por interferometría.

Para entender de qué se trata, imaginemos que queremos ver y medir un objeto que se lanza a un lago quieto y vía las ondas que deja, nosotros podemos medir sus crestas y valles, colocando para ello detectores en varias partes del mismo lago. De la misma manera, con la red EHT, las señales de 8 telescopios se tuvieron que combinar y alimentar a una computadora, lo que básicamente era una montaña de incomprensibles puntos en la imagen visual.

Esto presentaba entonces un reto computacional increíble por complejo y novedoso: la cantidad de datos era tan grande que tenía que ser mandada físicamente a un sitio central, que fue el observatorio MIT Haystack , en la forma de un número grande de discos duros, cuya cantidad de datos era de unos 5 Petabytes (1 000 000 000 000 000 de bytes). Había pues que desarrollar nuevos algoritmos para poder analizar la información de los radiotelescopios. Había que filtrar el ruido -siempre presente- debido a factores como la humedad atmosférica o por otras causas físicas, etcétera.

Quien hizo este trabajo fue la científica del MIT, Katie Bouman, que diseñó un nuevo algoritmo para poder formar la imagen que los telescopios habían mandado en esas señales de radio. Bouman elaboró una serie de pruebas para probar que no estaba armando una imagen falsa. Esto la obligó, en algún momento del trabajo, a separar en cuatro equipos el análisis de los datos, de forma que independientemente cada uno de ellos mostrara sus resultados. Vamos, Bouman decidió con buen criterio el hacer estas pruebas ciegas sobre los datos. Bouman comentó al respecto:

«Hemos derretido en un envase a matemáticos, astrónomos, físicos, matemáticos e ingenieros, y lo que logramos fue algo que pensamos en algún momento que era imposible».

El algoritmo, al cual Bouman bautizó como CHIRP (Continuous High-resolution Image Reconstruction using Patch), necesitaba combinar los datos de 8 radiotelescopios de la red EHT. Katie Bouman es una estudiante post-doctoral en el departamento ciencias de la computación y ciencias de las matemáticas.