El mundo se ha vuelto al revés. La ciencia ha invertido su método. Antes, la física funcionaba así: Primero la teoría, luego la prueba.
El bosón de Higgs tardó cincuenta años en confirmarse. Limpio. Caro. Lento.
En 1981, los genes recibieron un escopetazo. Ahora se puede secuenciar el genoma humano en cuestión de días o incluso horas. Antes, se tardaba años en completarlo.
Los astrónomos no querían esperar. Revelar la interacción de tres cuerpos celestes ya era bastante. Ahora alimentan a las máquinas con sistemas solares enteros. Las máquinas dan las respuestas. Luego los teóricos explican por qué.
Hay ordenadores alimentados con vídeos de gatos. Los gatos no son fluidos. Pero su movimiento inspira una comprensión de la mecánica de fluidos. Al menos eso cree el ordenador. Las máquinas entrenadas con vídeos de gatos obtienen mejores resultados en mecánica de fluidos.
Por ahora, es sobre todo para los astrónomos. Pero ChatGPT no se ha limitado al lenguaje. Lo mismo ocurre aquí. El objetivo es producir una experiencia de aprendizaje automático generalizable. Mejor aún si puede adaptarse a muchos campos. Piense en abogados litigando. No es diferente que los cuerpos en el espacio. Los argumentos de los abogados se mueven de un lado a otro, limitados por un sistema de procedimientos. Para la máquina, al tratar con abogados, las leyes ocupan el lugar de la gravedad de los astrónomos.
Los científicos formados en el viejo sistema se han casado con su campo. Parecen cojos cuando tratan de bailar al ritmo de campos diferentes. A los ordenadores no les importan los silos. Son infieles por naturaleza. Sin miedo. Sin orgullo, los ordenadores saltan de las estrellas a los gatos y a los tribunales. Solo importan los resultados.
El aprendizaje automático está convirtiendo a los ordenadores en polímatas. Incluso los románticos nostálgicos deben abrazar el nuevo método científico. La ciencia está al revés. Primero los datos, luego la teoría. Es desordenada. Es rápida. Funciona.
¿Lo entendemos? ¿Nos interesa? Esa es la cuestión.