Una de las cosas más subestimadas del Walrus es que asume que te arrepentirás.
Esto suena extraño, pero es la sensación más profunda que tengo tras entender Walrus: su diseño asume que en el futuro querrás mirar atrás.
La mayoría de los sistemas asumen que solo te importa el estado actual, y que el pasado puede comprimirse, combinarse, eliminarse o sobrescribirse. Pero el diseño de Walrus parte de una suposición opuesta: asume que en el futuro te preguntarás: ¿por qué llegó a ser así? ¿Quién lo cambió? ¿Cuándo lo cambió? ¿Qué ocurrió en medio?
Esta suposición puede parecer innecesaria hoy en día, pero encaja perfectamente con la forma en que funciona el mundo real. En el mundo real, lo más importante nunca es el resultado, sino la causa. Para comprender algo, debes saber cómo sucedió paso a paso.
Walrus convierte la "preservación de la causalidad" en una responsabilidad fundamental del sistema, no en una función adicional. Esto significa que no está diseñado para la eficiencia a corto plazo, sino para la capacidad de explicación a largo plazo.
Estos diseños suelen ser ridiculizados en sus inicios como "complejos", "redundantes" o "poco prácticos", pero cuando la complejidad del sistema aumenta, descubres que un sistema sin historial se convierte gradualmente en una caja negra.
Y Walrus, en esencia, está diseñado para evitar que los sistemas se conviertan en cajas negras.


