¿como descargar un archivo de 23.000 Teras?

buscando actividad para mi geek night (asi le digo a los viernes que por una u otra razón no puedo salir) y ya que me  perdí la aquelarre en la universidad me encontre un curioso acertijo que me puso a pensar u buscar la solución más razonable y quemar un poco de tiempo que me regala mi maldito insomnio.

¿es esto posible hoy en día?
 

bueno no se si lo sea del todo pero ahi va mi argumento.


Teniendo en cuenta que a una velocidad de 41 kb/s que sería una velocidad promedio durante un gran lapso de una conexión casera, y que se tardaría 4381 años a esta velocidad, que los ISP son tan des confiables ya que sus conexiones la mayoría de veces no pueden mantenerse por días, aplican servidores proxy y controlan grandes y continuos flujos de datos por parte de un cliente, un caso común de esto es cuando cada cierto número de gigas descargadas el ISP te desconecta automáticamente y te hace tomar una nueva IP lo que la mayoría de veces hace perder descargas que van a medias, y que al ser una descarga que tarda mucho tiempo es muy probable (aun si la raza humana existiera y por consiguiente existiese un flujo constante de energía eléctrica) que haya un gran lapso de tiempo sin flujo eléctrico (con esto de las tormentas solares y fallos producidos por cuanto fenómeno natural que pudiera suceder en estos 4000 años) lo que haría que la probabilidad de que cualquier sistema informático se mantuviese en pie fuera casi 0. Analizando estos factores es obvio que no podemos usar una PC con una capacidad de procesamiento media ni una conexión a internet empresarial. Por lo cual para descargar este importante archivo (jeje el que me va a hacer los premios de ubuntu XD) necesitamos generar una solución descentralizada es decir utilizar grandes cantidades de recursos en varias partes y segmentar la descarga.

Teniendo en cuenta que en la actualidad el sistema de archivos que soporta la mayor cantidad de información en un solo archivo es UFS el archivo seria guardado en un arreglo de discos y que ya disponemos de un disco creado por IBM que guarda 120 petas (recordemos nuestro archivo esta al rededor de las 2 petas) esta descarga en ese sentido se puede hacer efectiva y el unico sistema operativo que podría abrirlo sería alguno de la familia de BSD ya que son los únicos con soporte de lectura para este sistema de archivos (lastima ni mi querido linux podría leerlo).

Bien ahora hablemos de otro factor importante segmentar la descarga en esta parte es en la que tengo menos seguridad pero estoy seguro que las técnicas descritas a continuación pueden ser aplicadas con tecnologías ya existentes y estandarizadas o algunas por perfeccionar. Es cierto que existen grandes posibilidades de que al tratar de descargar un archivo en una sola parte la descarga falle y se pierda la descarga o que la integridad del archivo se vea afectada al continuar la descarga (por esto se han creado los MD5 con muchas ISO y archivos de gran volumen en internet para verificar que el archivo es integro después de descargarse) es necesario poder dividir la descarga por partes no me refiero al típico segmentado de un archivo rar que bajamos de MF RS o MU ya que el archivo a descargar no es nuestro, si no a poder descargarlo desde ciertas partes los primeros 1000 megas y de otra los segundos de otra parte así sucesivamente y por medio de Torrent el protocolo más rápido en mi experiencia en transferencia de archivos enviar esas partes al servidor central donde tenemos nuestro disco duro de 120 petas

Y por último un factor muy importante la velocidad de descarga si no tuviéramos en cuenta la ubicación del servidor que aloja el archivo ya que sería un cuadro muy complejo analizar la velocidad de subida de ese servidor y la de bajada de la de nuestros servidores en un caso como este hipotético solo entraremos a analizar la velocidad de descarga de nuestros pc's y donde nos convendría tenerlos para asía aprovechar el mejor ancho de banda, según pandonetworks el mejor ancho de banda en el mundo está en Corea del Sur suponiendo que nuestros equipos estuviesen allí incluyendo nuestro servidor central con el disco duro ya descrito cada uno de estos tendría una velocidad de 2,2 KB/s (kilo bytes no kilo bits) alrededor de 132 megas efectivas por segundo.
Esto quiere decir que 2399364998 megas que es el archivo se podrían bajar en un solo equipo en 18177007,560606061 segundos que son 302950,126010101 horas que a su vez son 5049,168766835 horas que son 210,382031951 si sólo usáramos 100 equipos en paralelo descargando las partes del archivo esto con el fin de no sobresaturarlo ya que se sabe que entre más conexiones simultaneas haya a un servidor así estas sean por pocos segundos y por pocos bytes así estan sean simultaneas podrían realentizarlo y hasta hacerlo caer (en esto se basan los ataques DdoS) el archivo se bajaria en las 100 estaciones en 2,10382031951 días y se tardaría otros 2,10382031951 días en transferirlo al servidor central el de nuestro super disco duro (recordemos que no estamos teniendo en cuenta ubicación del servidor ni velocidad de subida del mismo por lo cual generalizo la velocidad de corea del sur) al rededor de 4 días para bajar el archivo si tuvieramos recursos que ni tiene google esto sin contar el armado del archivo en el servidor ya descargado que podria tardar mucho mas tiempo de lo que se bajo, sin alargar más recordar que esto es un caso hipotético y que mi análisis no es perfecto ya que se baso en mis conocimientos y en cosas que requieren mucho estudio practico, y lo hize por análizar esta situación gracias por leer.

el disco más grande.


ancho de banda a nivel mundial.

 

1 comentario:

Ingeniero Forigua dijo...

Que bien jajajaja y hay mas os que los soportan el de oracle y el del extinto solaris, ademas en .zip solo puedes hacer archivos de 4 gb pero en zip 64 si lo puedes hacer