Posts Tagged Internet

Probar los gestores de contenido antes de instalarlos

Muchas veces nos habremos preguntado sobre cual sería el mejor gestor de contenidos para nuestro sitio web.

Normalmente la solución la encontramos instalándolo primero en modo local y haciendo pruebas en nuestro propio ordenador, pero, navegando en Internet he encontrado un sitio que me ha sorprendido.

Nos permite probar algunos de los programas de gestión de contenido  más populares, como WordPress, Joomla, Drupal o Xoops sin necesidad de instalar nada en nuestro pc.

Tienes tres ocpiones, bien probarlo sin darte de alta en el sitio, con lo cual, al desconectarte pierdes toda opción de recuperar lo que hayas hecho de pruebas, bien puedes probarlo registrándote gratis en el sitio, con lo cual tienes una semana para ir haciendo pruebas y te guarda los cambios realizados, o, finalmente, tienen una opción de pago, que te permite ir haciendo pruebas y cambios sin limitación de tiempo.

Es una forma rápida y fácil de comparar cual es el gestor que se adapta mejor a tus necesidades para poder, después, instalarlo sin riesgos, pues ya sabes como funciona y que utilidades puedes necesitar.

El sitio en cuestión se llama “click2tray”, el único problema que puede haber es que el sitio está en inglés.

Anuncios

Dejar un comentario

El día que internet fue atacada

Quizás nunca os lo hayáis planteado, quizás nunca creistéis que fuera posible, quizás ni sentistéis los ecos de tamaña batalla… pero lo cierto es que hubo un día en el que toda Internet casi deja de funcionar, fue uno de los ataques más increíbles que jamás se han realizado.

A lo largo de los años de vida de la red de redes no han sido pocos los que han señalado la debilidad de nuestra arquitectura actual de resolución de nombres. Ya sabéis que cuando escribimos en el navegador “www.google.com”, esto debe traducirse a una dirección IP que luego es usada para establecer la conexión. Para realizar este proceso es necesario que nuestro equipo contacte con algún servidor en donde se mapee el nombre “www.google.com” con su IP correspondiente. Obviamente, no existe ningún servidor central en donde todos los nombres estén mapeados con todas las IP, dado el tamaño de Internet y su naturaleza cambiante, eso es simplemente imposible.

Para visualizar la arquitectura de resolución de nombres debemos imaginar una pirámide, en la cima están los servidores raíz, los directores de la orquesta. A ellos siempre podremos preguntarles por el nombre que queramos resolver, pero en vez de darnos la respuesta, nos contestará con la dirección de un servidor de nivel inferior que puede que si la conozca. Ese servidor, si no la sabe, nos contestará a su vez con una dirección de nivel inferior al suyo, y así vamos bajando hasta dar con el servidor de nombres que tiene la información que buscamos. No quiero entretenerme mucho en el protocolo de resolución de nombres (DNS), pero la idea básica es que la información está repartida entre muchos servidores y existen caminos para llegar a ella a partir de los servidores raíz. Como toda arquitectura jerárquica cuenta con el problema clásico de la decapitación, ¿Qué pasa si por alguna razón caen los servidores raíz?  Existen un total de 13 servidores de raíz y muchos expertos coinciden en que las posibilidades de realizar un ataque éxitoso sobre los 13 de manera simultánea y con la duración suficiente para que sea notable son rídiculas. Por otro lado, estos servidores cuentan con medidas extraordinarias de seguridad, además atacarlos no produce ningún beneficio a nadie.

A pesar de todo, a las 20.45 UTC del  21 de Octubre del 2002 comenzó un ataque de denegación de servicio distribuido sobre los 13 servidores de nombres raíz. Cientos de miles de equipos comenzaron a establecer conexiones con estos servidores, cargándolos de trabajo adicional con la intención de impedirles realizar la tarea para la que fueron diseñados. El grueso del ataque se prolongó hasta  las 22.00 UTC, aunque aún siguieron llegando rafagas de paquetes maliciosos hasta la mañana del 22 de Octubre.

Se estima que cada servidor recibió una carga adicional de entre 50 y 100 Mbits/seg. El tráfico involucrado en el ataque iba desde paquetes ICMP hasta paquetes TCP mal fragmentados, pasando por los clásicos TCP SYN o intentos de conexiones UDP. Todas las direcciones de origen eran falsas, por lo que nunca se pudo ubicar a los bots que lanzaron el ataque.

Lo más singular es que fue la primera vez en que se ponía en marcha un ataque simultáneo de tal magnitud, el simple hecho de llevarlo a cabo ya era un reto importante. Otro de los detalles más desconcertantes fueron las motivaciones del atacante… la gloria en los sitios más oscuros del underground es lo único que parece aceptable.

El objetivo del ataque era evitar que los servidores de nombres raíz pudieran responder a las peticiones de resolución de nombres, lo que impediría la comunicación con cualquier máquina de la que no supieramos la IP. Por buscar un símil, si Internet es un gran continente, el ataque lo hubiera fragmentado en pequeñas islas incomunicadas entre sí… o con una comunicación muy limitada. Un desastre… sin negocios globales, sin e-mail… SIN GOOGLE!!! :P (bueno, posiblemente sí que seguiríamos teniendo acceso a Google, al menos durante varias horas después del comienzo del ataque, pero eso es otra historia). El caso es que de haber funcionado, hubiera sido un cataclismo sin precedentes… pero a que no os habéis enterado de que algo parecido haya sucedido, ¿verdad?

A pesar de que el ataque llegó a afectar a 9 de los 13 servidores, sólo fue perceptible por el usuario final como pequeños retrasos al intentar usar ciertos servicios. Esto se debió principalmente a las buenas medidas con las que contaban los servidores raíz para hacer frente a eventualidades como éstas y al buen hacer de los técnicos que intervinieron en esta incidencia: se amplió el caudal de datos, se activaron balanceadores de carga, se pusieron en marcha redes espejos para evitar congestiones en puntos concretos y muchas más medidas adicionales.

Todo quedó en un susto, horas de sueño perdidas y bastante dinero gastado (las contramedidas que se tomaron para mantener el servicio no fueron precisamente baratas). Además sirvió para reforzar aún más la seguridad de estos servidores.

Pero ésta no fue la última vez que se intetó decapitar Internet, el 6 de Febrero del 2007 un nuevo ataque masivo intentaba dejar fuera de servicio a los servidores raíz. A pesar de que este ataque fue mucho más agresivo y gracias a las mejoras introducidas en la arquitectura DNS tras el ataque del 2002, el impacto fue muy limitado, aunque se informó que dos de los servidores raíz habían sido gravemente afectados. Sin embargo, una vez más, el usuario final apenas notó retrasos en las comunicaciones.

Creedme si os digo que todos los días se libran batallas escalofriantes en ésta, nuestra red, sin embargo los hombres de negro velan por nosotros… o eso dicen ellos.

Fuentes principales:

http://d.root-servers.org/october21.txt

http://www.icann.org/announcements/factsheet-dns-attack-08mar07.pdf

Fuente de extracción del texto: http://www.sendaoscura.com/curiosidades/el-dia-en-que-internet-fue-atacada/

Dejar un comentario

Ebooks para todos III

Enseñar a los niños a usar el ordenador de forma libre, es decir, con software libre. Pero también la amplitud de opciones de internet. Internet-y-alrededores-para-ninos-y-ninas-usando-software-libre.pdf. (65 pág.)(esp)

Una especie de historia de la informática des del punto de vista particular de los blogs. Tres-ideas-y-poco-mas-sobre-los-blogs.pdf. (113 pág.)(esp)

Quieres saberlo todo sobre la inteligencia artificial? des del principio al fin? Inteligencia-Artificial-e-Ingenieria-del-Conocimiento.pdf. (130 pág.)(esp)

Buen ebook que nos expone algunos/todos los métodos de resolución de algoritmos de búsqueda mediante la inteligencia artificial. Inteligencia-artificial-Resolucion-de-problemas-Algoritmos-de-busqueda.pdf. (74 pág.)(esp)

Cualquier cosa sobre el seo, incluso antes de empezar. Pero también de mantenimiento del seo. Libro-SEO-Posicionamiento-en-Buscadores.pdf. (256 pág.)(esp)

Excelente e-book que nos enseña todo lo que hace falta para crear nuestro sistema GNU/Linux mediante programación, lenguaje usado c. GNU-Linux-programacion-de-sistemas.pdf. (82 pág.)(esp)

Este ebook son páginas escaneadas de diversos fasciculos de una revista (me parece), nos muestra los conceptos básicos del hacker (en vez del cracker). LA-BIBLIA-HACKER.pdf.(24 pág.)(esp)

Dejar un comentario

Cosas positivas de ser Blogger

Si aún no te declaras como un oficial ó tienes dudas de entrar totalmente a la , a continuación mencionare los principales puntos que hacen al algo positivo y quizas te interesa mucho más.

  • Conocimiento. Cada vez que navegamos por tratamos de encontrar algo para publicar, entre todo lo que miramos siempre aprendemos muchas cosas nuevas que nos hacen día a día más inteligentes.
  • Personas Bloggers. Seguramente haz encontrado en foros a otros que tienen el mismo interes por una temática, con eso empieza una amistad.
  • Una lección de vida. Tener un blog te enseña a ser constante para mejorarlo y tener que aprender para resolver problemas.
  • Dinero. Es verdad que tienes la posibilidad de ganar dinero con sistemas publicitarios o vendiendo , pero nunca olvides por lo que realmente empezaste.
  • Satisfacción. En el camino  te sentiras bien porque gente visita el blog y coloca comentarios ó se suscribe al , una manera de saber que a alguien le parece importante lo que estás escribiendo.
  • Expresarse. Eres libre de publicar lo que quieras que el mundo mire.

Quizas existen más cosas positivas que hacen al Blogging más que publicar noticias, al leer todo, parece que te haces mejor como persona y tomas profesionalismo.

Fuente: http://www.maestrosdelblog.com/general/cosas-positivas-de-ser-blogger/

Dejar un comentario

Popularidad de Linux y Ubuntu en Internet

Los chicos de MuyComputer han hecho un estudio para comprobar la popularidad que tiene realmente Linux en la red han utilizado Google Trends una aplicación on-line del popular buscador.Aquí os dejo los resultados obtenidos y las impresiones que han dejado.

En esta ocasión os mostramos las distribuciones más descargadas según Distrowatch: Ubuntu, Debian, Suse, Mandriva y Fedora. La primera búsqueda realizada ha generado un gráfico en el que se muestran las búsquedas en Google relaccionadas a las distribuciones mencionadas anteriormente que representan la evolución de las mismas desde 2004 hasta la actualidad. Como se puede observar el nivel de popularidad en búsquedas de Ubuntu es notoriamente superior.

Desde Google Trends podemos filtrar por varios criterios y uno de ellos es por regiones, por ello os mostramos el mismo ejemplo anterior pero aplicado al caso de España, donde parece que la tendencia es similar, pero con la diferencia de una mayor popularidad de Debian.

Para terminar os dejamos la gráfica que muestra la evolución de búsquedas que implican a los principales sistemas operativos (Windows, Mac, Linux) y también Ubuntu, para comprobar la diferencia entre Linux y Ubuntu en la misma además de la comparativa multisistema”.

Visto en http://busquiel.sociallinux.org/2009/04/popularidad-de-linux-y-ubuntu-en-internet/

Dejar un comentario

Linux alcanza el 4% de cuota en Internet y Firefox supera a Explorer

Según las estadísticas que mensualmente publica la w3c, Linux continúa creciendo lentamente hasta alcanzar el 4% de cuota de mercado.  Estas estadísticas se obtienen según los datos obtenidos de los clientes cuando navegan, así que hay que analizarlas con cautela.

Esto es debido a que un usuario de Linux promedio podría ser más activo en la red que un usuario de Mac, por ejemplo, haciendo que la estadística se incline hacia Linux falseando la cuota de mercado real (número de ordenadores físicos con el Sistema Operativo instalado).  De cualquier manera sirve para hacernos una idea de la tendencia del mercado y que podríamos sintetizar en:

– Mac y Linux siguen subiendo lentamente hasta lograr el 6% y 4% respectivamente.
– Vista sigue subiendo hasta lograr un 17,2%.
– XP sigue bajando lentamente hasta el 69%
– El conjunto de plataformas Windows mantienen el 90% de cuota, siendo este último año el año que más cuota perdieron (2%), el doble que su máximo histórico.

Respecto al uso de los navegadores, las tendencias también son algo preocupantes para Microsoft, ya que Explorer se sitúa en un tímido 43,6% mientras que Firefox obtendría un 46,4%, Chrome un 4%, Safari un 3% y Opera un 2,2%.

Podríamos decir que en este último año Explorer perdió nada menos que un 11% de cuota de mercado que fueron a parar un 5% a Firefox, un 4% Chrome y un 1% a Safari y Opera.

Intuyo que la corta vida de IE7 en favor de IE8 intenta conseguir un cambio de tendencia, del mismo modo que el hecho de que Microsoft esté agilizando la actualización de versiones  forzándolas aunque el usuario no lo haya solicitado.  Todo parece indicar que Microsoft está empezando a preocuparse por los estándares web, a pesar de que su IE8 obtenga la puntuación más baja en el test Acid3 de todos los navegadores del mercado.  Creo que ni viéndole las orejas al lobo aprenden.

Fuente: http://lamaquinadiferencial.wordpress.com/2009/03/22/linux-alcanza-el-4-de-cuota-en-internet-y-firefox-supera-a-explorer/

Dejar un comentario

Wolfram Alpha ¿el próximo paso de Internet?

Stephen Wolfram, acaba de revolucionar a la mitad de la web al anunciar en su blog que esta lanzando Wolfram Alpha un motor computacional de respuestas a preguntas en lenguaje natural que dan respuestas concretas y esto va en contra de todo lo que se ve hoy en día en los buscadores y en la lógica de Internet. Cuando uno hace una pregunta en Google, recibe una serie de links hacia documentos donde supuestamente está la respuesta o en Wikipedia encuentra un artículo con datos específicos del tema pero NO la respuesta exacta a, por ejemplo, “¿A que distancia va a estar mañana el sol de la tierra?”.

Y lo más extraño de esto es que no usa ninguna tecnología de la Web Semántica (¿Que van a hacer los que decían que era el futuro de la web si este tipo tiene éxito?) y eso tiene a medio Techmeme hablando de el y a tipos como Venture Beat diciendo que esto es el primer paso a un cerebro electrónico.. les recomiendo seriamente leer la nota en Twine porque esto puede ser el próximo paso de Internet o el vaporware de la década 😉

Links interesante: Nota en 2002 de Wired sobre como Wolfram apareció y desapareció; el producto por el que todos los conocen: Mathematica y el libro New Kind of Science

Fuente:http://www.uberbin.net/archivos/web20/wolfram-alpha-%C2%BFel-proximo-paso-de-internet.php

Dejar un comentario

Older Posts »