Actualidad
Google tardará 300 años en indexar toda la información del mundo
Hasta el momento tienen indexado solo el 0.005%
Hasta el momento tienen indexado solo el 0.005%
Y ahora en unas últimas declaraciones indicó que habían hecho un ejercicio matemático y han calculado que tardarán unos 300 años en indexar toda la información mundial y en ponerla a disposición de los usuarios.
Quién sabe si para cuando terminen ya existirán los discos de 250 terabytes y talvez sean 90,000 millones de GB de información.
¿Ahora, si ellos tienen indexado el 0.005% cuánto tendrá Yahoo! o MSN?
Este comentario contradice a los que hablamos de Google como la herramienta que tiene todas las respuestas
Pero bueno, si faltan 300 años y la información sigue creciendo, se me hace que no viviremos para verlo
SOLO AÑADIR: CON 2 DECIMALES TENEMOS ACCESO A 0.00 % DE INFORMACION Y CERO ES CERO, SIN VALOR
a pesar de los adelantos de la informática no somos capaces de manejar la información de una manera más rápida.
Ya me imagino la información que podríamos encontrar si tuvieran apenas el 1%
Me pregunto. Como podemos entonces tener acceso al otro 99.995% de la informacion del internet? Nunca sabremos que mas hay?
En primer lugar no nos perdemos demasiado. La gente no habla de cosas tan distintas. Todos estan repitiendo las noticias. En segundo lugar, sin embargo, se podria organizar un directorio mundial, al menos en ingles, que podria ser llenado por cada creador de sitio. La potencia de procesamiento de toda esa gente junta haria que tuvieramos los indices al dia, de un dia para el otro.
para que saberlo todo si ni siquiera sabemos lo que conocemos.
No creo que terminen de indexar todas las webs del mundo la causa es porque dia con dia surge nueva informacion, como noticias, historias, cuentos, nuevas fotos etc. Indexar seria como los numeros naturales que son infinitos.
Google indexa las paginas segun su calidad e importancia en la red y las ofrece en este orden. Generalmente obtenemos los resultados mejores en la primera pagina de la busqueda, siendo las otras cuatrocientas tonterias. ¿Quien quiere que sean 40.000? Lo importante no es la cantidad, sino la calidad.
no estoy de acuerdo con que el resto de la red (99.995%) repita lo que dice el 0.005% conocido por google, ademas como sabe google de la existencia de una web, me imagino que debe haber algun tipo de inscripción y si al autor de esa nueva web no le interesa aparecer en google. Sean sinceros mucho de los que usamos internet andamos por ahi deseosos de encontrarnos cosas raras e interesantes y estoy seguro queel google no nos las da.
Mi sitio apareció en altavista y yahoo a los pocos días del registro en google tres meses después ni rastro, no me extraña que tarden 300 años en almacenar toda la información, con esa calma que tienen añadiendo direcciones al buscador, quizás no sea tan avanzado como nos quieren hacer creer.
¿Tan difícil es que no han podido crear una tecnología que indexe la información por sí misma? El problema, me parece, es quién se beneficia a parte de los internautas.
Es una forma de controlar la red mediante indexar todas las webs del mundo.
Me parece que a ” El Gran Hermano” se les esta escapando entre sus manos
el contol de la red.
Me recuerda “1984” de R.G. Orwell…
Sean cautos….!
y no hay un buscador de rarezas?
si hay buscadores de rarezas, y google si indexa automaticamente, en realidad lo que hace es buscar links en las paginas ya indexadas para despues indexarlas, esas nuevas paginas ya indexadas contienen nuevos links, etc.. si no hay rastros, ni links de ninguna web, no hay manera de dar con ella, ni sikiera manualmente.. seria necesario primero que el autor nos proporcionase su ubicacion..
la solucion, no la hay, si alguien no deja huellas, como dar con el?… buscar en todos los lugares ke existen?.. no lo creo, a eso se le llama acoso…
Hay demasiada basura indexada en la red. Existe muchísima información que sus dueños la tienen digitilizada pero no quieren ponerla en la red. Por ejemplo, las revistas especializadas.
Creo que hasta el momento tenemos la informacion muy completa de lo que buscamos por medio de la red, no podemos hanciar saber lo que no sabemos que existe.
A ver, no os despitéis. Google ahora mismo tiene INDEXADAS la hostia de páginas pero en este comunicado han usado esa palabra dirigido no a la indexación de sitios web para que los podamos encontrar en la web al realizar una búsqueda, sino a la indexación de CONTENIDOS, esto es, todos los videos porno del emule por ejemplo.
Es una estupidez lo que han dicho y la gente se lleva a error, hasta ahora google solo indexa páginas y guarda una caché (a esto se referían) de las páginas más visitadas, no de las fotos ni vídeos, sino de la página en sí; HTLM. Con esto de guardar en caché el código fuente conseguimos que si un día la página se cae podemos seguir consultando cosas usando la caché de google, y con lo de indexar pues podemos encontrar cosas al hacer búsquedas.
RESUMEN:
En este comunicado quieren dar a entender que, de todo lo que existe ahora mismo que pueda meterse en un disco duro, sólo tienen guardado esa cantidad en caché, eso es lo que quiere decir, no se refiere a las páginas, que las tiene casi todas.
Por lo que me parece una gilipoyez dicho comunicado, la labor de google es indexar sitios web, no contenidos, que además de ser imposible por ser casi infinito y no rentable, es imposible por temas de copyright y demás, además no creo que google se ponga a indexar porno por ejemplo.
Por lo tanto y como resumen del resumen:
-Han comentado una curiosidad de lo que se tardaría en meter en sus ordenadores (si les cupiera) toda la información del mundo. No tiene nada que ver con webs.
Cada vez que busco algo, lo unico que obtengo es perder el tiempo, para que quiero el resto indexado, si con lo que hay que supuestamente es lo que mas relevancia tiene, se pierde mucho tiempo buscando hasta que encuentro lo que busco.
Yahoo es diez veces peor, pareciera que el buscador que tienen es peor que altavista despues que se lo comiera google.
el agua da mucha salud y es vida nos ayuda a blanquiar los pulmones y a los intestino nos limpia el cuerpo
el agua da mucha salud y es vida nos ayuda a blanquiar los pulmones y a los intestino nos limpia el cuerpo
– en primer lugar lo que tenemos que pensar en que anes la gente vivia no mas de 40 años, cosa que ahora hasta se triplica.
– por otro lugar el calculo de los 300 años de google se realizo bajo el viejo sistema de robot.txt
actualemnte y con el nuevo systema programado en python google mismo reconocio que su indexador esta trabajando a 1000 % mas velocidad que hace 5 años.
que significa eso si es que es verdad?
que lo que hasta hace meses tardaria 300 años hoy lo puede hacer en 0,003 años es decir un par de dias…
esperemos se vean los resultados que ellos mismos pronosticaron
[…] Google tardará 300 años en indexar toda la información del mundowww.maestrosdelweb.com/actualidad/2413/ por Kurrol hace pocos segundos […]