¿Cuál es el origen de la computación en la nube?

La computación en la nube es una tecnología que ha revolucionado la forma en que utilizamos y accedemos a la informática. Actualmente, es posible realizar cálculos y procesar datos de manera rápida y eficiente sin tener que contar con hardware especializado o software costoso. Pero, ¿Cómo llegamos a este punto? ¿Cuál fue el origen de la computación en la nube?
En este blog, exploraremos el desarrollo histórico de la computación en la nube y cómo ha evolucionado a lo largo del tiempo. Por eso, si estás interesado en entender mejor cómo funciona la computación en la nube y cuáles son sus raíces, ¡sigue leyendo!
Origen de la computación en la nube: los primeros pasos
La idea de la computación en la nube como tal no fue pensada específicamente hasta la década de los 2000s. No obstante, algunas de las propuestas y tecnologías que llevaron al desarrollo de la nube se originaron desde los años 50s y 60s.
En la década de 1950, se desarrollaron las primeras redes de computadoras, como el proyecto SAGE del gobierno de los Estados Unidos, que fue uno de los primeros sistemas de defensa aérea automatizados que utilizaba varias computadoras conectadas en red para rastrear objetos voladores no identificados. Este proyecto fue uno de los primeros en utilizar la noción de recursos compartidos y acceso remoto a través de una red.
Luego, el Sistema Compartido de Computación de Massachusetts Institute of Technology (MIT) en 1961 apareció para dar más aportes a esta idea. Este sistema permitió a varios usuarios acceder a un solo computador central a través de terminales remotos y utilizar el mismo sistema operativo y los mismos programas.
A dos años después del MIT, IBM lanzó el Sistema de Procesamiento de Datos Compartidos (SPDS) en 1963 para que usuarios de diferentes sectores como la banca o la contabilidad pudiesen acceder a un solo computador central a través de terminales remotos; y además, promocionó el servicio de alquiler de computadoras de IBM para aquellas empresas que no pudiesen comprar una.
Origen de la computación en la nube: pioneros
Aunque no hay ninguna persona que pueda llevarse el titulo de “padre/madre de la computación en la nube”, existen varios científicos e ingenieros que contribuyeron al desarrollo de la idea de la computación en la nube durante la década de 1960. Algunos de ellos fueron:
- John McCarthy, un científico de la computación y matemático, quien en la conferencia de Dartmouth en 1956, propuso el término "Inteligencia Artificial" y en la conferencia de MIT en 1961, propuso la idea de un "computador central" compartido por varios usuarios a través de terminales remotos.
- John C. Shaw, un ingeniero de sistemas en MIT, quien en 1963, propuso la idea de "Intergalactic Computer Network" (Red Intergaláctica de Computadoras), una especie de predecesor a Internet, donde los usuarios podrían acceder a recursos informáticos remotos desde cualquier lugar.
- Robert Taylor, un ingeniero de sistemas en el laboratorio de investigación de Xerox, quien en la década de 1960, propuso la idea de una "oficina sin papeles" donde los usuarios podrían acceder a información y recursos informáticos remotos desde cualquier lugar.
- J.C.R. Licklider, un psicólogo cognitivo y científico de la computación, quien en la década de 1960, propuso la idea de una "Galactic Network" (Red Galáctica) donde los usuarios podrían acceder a recursos informáticos remotos desde cualquier lugar.
Aunque estos científicos e ingenieros no crearon la computación en la nube tal y como la conocemos hoy en día, sus ideas y propuestas ayudaron a sentar las bases para el desarrollo de la computación en la nube en las siguientes décadas.
Origen de la computación en la nube: los años de silencio
Si bien JCR Licklider plantea la necesidad de crear unas redes intergalácticas de computación en 1969 para compartir información de manera remota, esa fue el último planteamiento que se conoció sobre la computación de la nube hasta ser desempolvado nuevamente durante la década de los 90s y 2000s.
Se cree que las ideas de la computación en la nube que surgieron en la década de los 60s no se desarrollaron inmediatamente por las siguientes razones:
- Tecnología Limitada: Aunque las primeras propuestas de la computación en la nube se desarrollaron en la década de 1960, la tecnología de la época no estaba madura lo suficiente para permitir la implementación a gran escala de estas ideas. Por ejemplo, las redes de computadoras eran todavía incipientes y no se disponía de suficiente ancho de banda para conectarlas de manera eficiente.
- Costo: La tecnología de la época era costosa y solo estaba disponible para un pequeño número de usuarios, lo que dificultaba la implementación a gran escala de sistemas de tiempo compartido y de computación en la nube.
- Cambio de enfoque: A medida que la tecnología evolucionó, muchas empresas y organizaciones se enfocaron en desarrollar tecnologías de computación personal, como las computadoras personales y las redes locales.
- Falta de Interés: En esa época, no había una gran demanda de servicios de computación en la nube, ya que la mayoría de las empresas y organizaciones tenían sus propios recursos informáticos y no veían la necesidad de acceder a recursos remotos.
Sin embargo, la tecnología evolucionó y las necesidades de las empresas y organizaciones cambiaron con el paso del tiempo, lo que llevó al resurgimiento de la computación en la nube en la década del 2000.
Origen de la computación en la nube: el renacimiento
Durante los años 90, las mejoras para conectarse a Internet se hicieron más comunes e incentivó un mayor desarrollo en las capacidades de almacenamiento y procesamiento para grandes cantidades de datos en línea. Esto a su vez hizo pensar que compartir recursos informáticos de forma remota fuese una realidad más tangible.
De hecho, George Favaloro y Sean O’Sullivan, ejecutivos de Compaq Computer, se les atribuye el uso del término "Cloud Computing" por primera vez durante una presentación para describir un nuevo modelo de entrega de servicios de TI en el que los recursos informáticos se entregará a los usuarios a través de Internet. Sin embargo, el término "computación en la nube" no se popularizó hasta entrados los años 2000s cuando se comenzaron a desarrollar servicios de nube comerciales y se observó un aumento en la demanda de servicios de TI.
Durante esta época, la conectividad a Internet se volvió más rápida y confiable lo cual permitió el acceso a recursos informáticos remotos de manera más eficiente. Con el surgimiento de proveedores de servicios de nube como Amazon Web Services, Microsoft Azure o Google Cloud Platform, se popularizó el uso de la computación en la nube, permitiendo a las empresas acceder a una gran cantidad de recursos informáticos sin tener que invertir en hardware costoso.
Además, con la llegada de servicios en línea como Gmail, Google Docs o iCloud se ha ido formando el ecosistema actual, permitiendo a las empresas y organizaciones mejorar la eficiencia y escalabilidad de sus operaciones, al mismo tiempo que ha hecho posible que los usuarios tengan acceso a una gran cantidad de nuevos servicios y aplicaciones en línea.
En resumen
La computación en la nube es una tecnología que ha revolucionado la forma en que las empresas y organizaciones acceden y utilizan los recursos informáticos. Aunque el término "Cloud Computing” se popularizó en la década del 2000, sus raíces se remontan a la década de 1950 y 1960 con el desarrollo de las primeras redes de computadoras y sistemas de tiempo compartido.
En los 90s, se comenzaron a desarrollar las bases tecnológicas para lo que hoy conocemos como computación en la nube, así como el aumento de la conectividad a internet y el almacenamiento y procesamiento; y en los 2000s, surgieron al fin los primeros servicios de computación en la nube comerciales con Amazon Web Services, Microsoft Azure y Google Cloud Platform, siendo estas las primeras empresas en ofrecer servicios de este tipo.