Posicionamiento en buscadores

3.3594548552244 (587)
Publicado por t800 26/03/2009 @ 06:10

Tags : posicionamiento en buscadores, internet, tecnología

últimas noticias
'Tiendasensevilla.com' se presenta como una oportunidad de ... - Europa Press
La gran ventaja con la que cuenta 'tiendasensevilla.com' es su posicionamiento en los buscadores como Google, dado que "optimizar el posicionamiento" en buscadores significa trabajar para que la web aparezca entre los diez primeros resultados de...
Afecta a todos los niveles de la entidad - El Diario Montañés
Visibilidad: El posicionamiento en buscadores es determinante en el éxito de una web empresarial, porque éstos son la principal vía para encontrar información que utilizan los clientes. 4.- Inversión: Disfrutar de todas las ventajas que ofrecen las NN...
“SEM SOCIAL Y POSICIONAMIENTO RELACIONAL: Convenio Art- Natura ... - noticias.info (Comunicado de prensa)
/noticias.info/ Hoy en BUSCADORES, el blog de posicionamiento de SpainHotelsBooking, traemos un modelo de relación institucional que se plasma en un acuerdo que recoge y puntualiza aspectos, como el intercambio de contenidos y de links que tiene como...
Crean la web del Museo para la promoción cultural de la localidad - Ideal Digital
Programa y Diseño: La página web contribuirá al desarrollo y posicionamiento del museo, y tendrá como objetivos crear elementos básicos de comunicación para activar el desarrollo de actuaciones de promoción del museo, requiriendo el proyecto un...
España: Idiso asume servicios online y la Web de Hoteles Poseidón - Caribbean News Digital
... de venta y distribución hotelera Idiso una nueva Web con un potente motor de reservas, los servicios de un “call centre”, la conectividad con las agencias de viajes online y offline, acciones de e-marketing y posicionamiento en buscadores....
La central de reservas de Unión Hotelera incorpora un sistema de ... - La Voz de Asturias
Oviedo - El presidente de Unión Hotelera del Principado, Javier Álvarez, ha afirmado hoy que la reforma de la central de reservas en internet de esta entidad recoge las últimas estrategias de posicionamiento en buscadores, y ha añadido que la propuesta...
Red y Comercio imparte por toda España seminarios sobre Google ... - Cibersur.com
En cuanto al seminario de posicionamiento web, éste se centra en los resultados orgánicos de Google: aprender y aplicar los más recientes métodos existentes para posicionar su web en los principales buscadores de Internet, como Google, pero también Msn...
Mipymes ha posicionarse en la Web - Diario Occidente
... las herramientas que ofrecen el buscador Google, que para muchos es un simple motor de búsqueda, pero que con herramientas alternativas, es la mejor opción, de forma gratuita, para el posicionamiento de las mipymes. Además de buscadores, software,...
¿SEO o una estrategia completa de E-Marketing'? - Alto Nivel
Durante los últimos años, la creación de empresas que ofrecen ofrecen el servicio del posicionamiento en buscadores de internet ha crecido sostenidamente. Los objetivos son claros: otorgar solución para que una tienda online mejore sus ventas....
" La sociedad murciana debe promover y fomentar la Comunicación e ... - La Verdad (Murcia)
Según Rodríguez Zapatero, en España hay buenos profesionales centrados en algún segmento en particular -marketing, posicionamiento, generación de contenidos...- pero faltan profesionales que tengan una visión general del negocio de Internet y sepan...

Posicionamiento en buscadores

El posicionamiento en buscadores o posicionamiento web es el resultado de la recuperación de información en la base de datos de los grandes Motores de Búsqueda de Internet por el uso de algoritmos de búsqueda en el software.

La tarea de ajustar la información de las páginas que se pretenden hacer aparecer en primeras posiciones de los resultados es conocida como SEO, sigla en inglés de Search Engine Optimization, optimización para motores de búsqueda. Consiste en aplicar diversas técnicas tendientes a lograr que los buscadores de Internet sitúen determinada página web en una posición y categoría alta (primeras posiciones) dentro de su página de resultados para determinados términos y frases clave de búsqueda. También es entendido como las técnicas de desarrollo web que tengan como objetivo mejorar la posición de un determinado sitio web por sus páginas en la lista de resultados de los Motores de Búsqueda que en inglés se identifican como SERPs y forma parte de la jerga de los webmasters hispanohablantes.

La aplicación de técnicas SEO es intensa en sitios web que ofertan productos o servicios con mucha competencia, buscando el posicionar determinadas páginas sobre las de sus competidoras en la lista de resultados (SERPs).

Estrictamente hablando, se posicionan URLs de páginas. Los sitios logran buen posicionamiento como una consecuencia.

Las técnicas SEO pueden ser desmedidas y afectar los resultados naturales de los grandes buscadores por lo que si incumplen las cláusulas y condiciones de uso de los mismos pueden ser consideradas, en algunos casos, como una forma de SPAM, el spamdexing.

El trabajo es amplio, ya que el posicionamiento involucra al código de programación, al diseño y a los contenidos. También nos referimos a SEO para definir las personas que realizan este tipo de trabajo.

Para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a tu web y estudiar cuales de ellos tienen un contenido complementario. Si por ejemplo quieres posicionarte por el término "peluquería madrid" puede ser interesante intentar conseguir enlaces de peluquerías de otras ciudades. La temática será similar y no corres el riesgo de canibalización.

Los directorios han perdido mucho interés en los buscadores pero siguen siendo un buen punto de partida para conseguir enlaces o un primer rastreo de tu web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las web añadidas, pero también ralentiza y dificulta su inclusión.

Los frames, el javascript o las páginas en flash no permiten el rastreo / seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio plano por el cual no se puede navegar.

Cada página es una tarjeta de presentación para el buscador. Los Title y Description son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores.

Un sitemap (tanto el de google como uno presente en el site) nos permitirá dar paso al buscador por las diferentes secciones del site de una forma ordenada, mejorando su visibilidad.

Al principio



Historia de Internet

Number of internet hosts.svg

La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha desarrollado en un gran número de pasos. La unión de todos estos desarrollos culminó con la red de redes que conocemos como Internet. Esto incluía tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.

Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).

En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.

Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.

La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

Ascendido a jefe de la oficina de procesamiento de información en el ARPA, Robert Taylor intentó hacer reales las ideas de Licklider sobre un sistema de redes interconectadas. Junto con Larry Roberts del MIT, inició un proyecto para empezar con una red similar. La primera conexión de ARPANET se estableció el 21 de noviembre de 1969, entre la Universidad de California, Los Ángeles y el Instituto de Investigaciones de Stanford. Antes del 5 de diciembre de 1969, se había formado una red de 4 nodos, añadiendo la Universidad de Utah y la Universidad de California, Santa Barbara. Usando ideas desarrolladas en la ALOHAnet, la ARPANET se inauguró en 1972 y creció rápidamente hasta el 1981. El número de hosts creció a 213, con uno nuevo añadiéndose aproximadamente cada 20 días.

ARPANET se convirtió en el núcleo de lo que posteriormente sería Internet, y también en una herramienta primaria en el desarrollo de la tecnología del momento. ARPANET evolucionó usando estándares del proceso RFC, aún usado actualmente para proponer y distribuir protocolos y sistemas de Internet. El RFC1, titulado "Host Software", fue escrito por Steve Crocker desde la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969.

Las colaboraciones internacionales en ARPANET eran escasas; por varias razones políticas los desarrolladores europeos estaban preocupados en desarrollar las redes X.25, con la notable excepción del Norwegian Seismic Array en 1972 seguidos en 1973 por enlaces de los satélites a la estación terrestre de Tanum en Suecia y en la University College de Londres.

A partir de la investigación del DARPA, las redes de conmutación de paquetes fueron desarrolladas por la Unión Internacional de Telecomunicaciones (UIT) en forma de redes X.25. X.25 formó la base de la red entre la academia británica y otros sitios de investigación en SERCnet, en 1974, que más tarde pasaría a llamarse JANET. El Estándar inicial de X.25 según la UIT se aprobó en Marzo de 1976.

En 1978, la Oficina de Correos británica, Western Union International y Tymnet colaboraron para crear la primera red de paquetes conmutados internacional; refiriéndose a ella como "International Packet Switched Service" (IPSS). Esta red creció desde Europa y Estados Unidos hasta Canadá, Hong Kong y Australia antes del 1981, y pocos años después, creó una infraestructura de conexiones mundial.

Al contrario que ARPANET, X.25 estaba diseñado para poderse utilizar en oficina. Se usó para las primeras redes de teléfono de acceso público, tales como Compuserve y Tymnet. En 1979, CompuServe fue el primero en ofrecer posibilidades para el correo electrónico y soporte técnico a usarios de PCs. La compañía fue nuevamente pionera en 1980, como la primera en ofrecer chat con su CB Simulator. También estaban las redes de teléfono de America Online (AOL) y Prodigy, y varias redes BBS como The WELL y FidoNet. FidoNet era popular entre usuarios por hobby, parte de ellos hackers y radioaficionados.

En 1979, dos estudiantes de la Universidad de Duke, Tom Truscott y Jim Ellis, propusieron la idea de usar scripts simples en Bourne Shell para transefir noticias y mensajes entre su universidad y la cercana Universidad de Carolina del Norte, Chapel Hill. Después de la salida del software al dominio público, la red de hosts UUCP usada para noticias Usenet se expandió rápidamente. UUCPnet, nombre que acabaría recibiendo, también crearía portales y vínculos entre Fidonet y los hosts de marcaje,telefónico BBS. Las redes UUCP se distribuyeron rápidamente debido a su bajo coste y a su capacidad de usar las líneas alquiladas ya existentes, los vínculos X.25 o incluso las conexiones de ARPANET. Antes de 1983 el número de hosts UUCP ya había aumentado a 550, casi duplicándose hasta los 940 en 1984.

Por esta época había muchos métodos diferentes de conexionado, hacía falta algo para unificarlos. Robert E. Kahn del ARPA y ARPANET contrató a Vint Cerf de la Universidad de Stanford para trabajar con él en el problema. Antes del 1973, habían pensado en una reformulación fundamental, donde las diferencias entre los protocolos de red se escondían usando un protocolo de red común, y donde eran los hosts los encargados de ser fiables, y no la red. Cerf atribuye a Hubert Zimmerman y a Louis Pouzin (diseñador de la red CYCLADES) un importante trabajo en este diseño.

Con el rol de la red reducido al mínimo, se hizo posible juntar prácticamente todas las redes, sin importar sus características, resolviendo el problema inicial de Kahn. DARPA aceptó patrocinar el desarrollo del software prototipo, y tras muchos años de trabajo, la primera demostración (algo básica) de en cómo se había convertido al protocolo TCP/IP (en Julio de 1977). Este nuevo método se expandió rápidamente por las redes, y el 1 de Enero de 1983, los protocolos TCP/IP se hicieron los únicos protocolos aprobados en ARPANET, sustituyendo al anterior protocolo NCP.

Después que ARPANET estuviera funcionando por varios años, ARPA buscó otra agencia para ceder la red de ordenadores; la tarea primaria de ARPA era impulsar investigaciones y desarrollos de avanzada, no manejar un servicio público de comunicaciones. Eventualmente, en julio de 1975, la red se cedió a la "Defense Communications Agency" que también era parte del Departamento de Defensa. En 1984, la porción militar de ARPANET se dividió como una red separada, la MILNET.

Las redes basadas alrededor de ARPANET eran pagadas por el gobierno y por tanto restringidas a usos no comerciales tales como investigación; el uso comercial estaba estrictamente prohibido. Las conexiones se restringieron a sitios militares y universidades. Durante los 80s, las conexiones se expandieron a más instituciones educacionales, e incluso a un creciente número de compañías tales como Digital Equipment Corporation y Hewlett-Packard, que estaban participando en proyectos de investigación y suministrando servicios.

Otra rama del gobierno, la National Science Foundation (NSF), se volvió fuertemente involucrada en investigación en Internet y empezó un desarrollo como sucesor de ARPANET. En 1984 esto resultó en la primera red de banda ancha diseñada específicamente para usar TCP/IP. Esto creció como NSFNet, establecida en 1986, para conectar y proveer acceso a una cantidad de supercomputadores establecidos por la NSF.

Para entonces, ARPANET empezó a fusionarse con NSFNet, originando el término Internet, con, "una internet" definido como cualquier red que usase el protocolo TCP/IP. "La Internet" significaba una red global y muy grande que usaba el protocolo TCP/IP, y que a su vez significaba NSFNet y ARPANET. Hasta entonces "internet" e "internetwork" (lit. "inter-red") se habían usado indistintamente, y "protocolo de internet" se usaba para referirse a otros sistemas de redes tales como Xerox Network Services.

Como el interés en la expansión de las conexiones creció, y aparecieron nuevas aplicaciones para ello, las tecnologías de Internet se esparcieron por el resto del mundo. En 1984, University College London reemplazó sus vínculos por satélite transatlánticos por TCP/IP por medio del International Packet Switched Service (Servicio Conmutado de Paquetes Internacional).

Varios sitios que no podían conectarse directamente a Internet empezaron a hacerlo por medio de simples portales para permitir la transferencia de correo electrónico, siendo esta última por entonces la aplicación más importante. Esos sitios con sólo conexiones intermitentes usarían UUCP o Fidonet, y confiarían en los portales entre esas redes e Internet. Algunos servicios de portales fueron más allá del simple peering de e-mail, ofreciendo servicios como el acceso a sitios FTP a través de UUCP o e-mail.

La primera conexión ARPANET fuera de EEUU se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET.

En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Segal, coordinador TCP/IP dentro del CERN; buscando por consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción europea de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa. Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam.

Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1989, las universidades australianas se unieron al empujón hacia los protocolos IP para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia.

En Asia, habiendo construido la JUNET (Red Universitaria Japonesa) una red basada en UUCP en 1984 Japón continuó conectándose a NSFNet en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kobe. Singapur desarrolló TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992.

Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores cerraban un ojo sobre su operación.

Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.

Internet desarrolló una subcultura bastante significativa, dedicada a la idea de que Internet no está poseída ni controlada por una sola persona, compañía, grupo u organización. Aun así, se necesita algo de estandarización y control para el correcto funcionamiento de algo.

El procedimiento de la publicación del RFC liberal provocó la confusión en el proceso de estandarización de Internet, lo que condujo a una mayor formalización de los estándares oficialmente aceptados. El IETF empezó en enero de 1986 como una reunión trimestral de los muchos investigadores del gobierno de los Estados Unidos. En la cuarta reunión del IETF (octubre de 1986) se pidió a los representantes de vendedores no gubernamentales que empezaran a participar en esas reuniones.

La aceptación de un RFC por el Editor RFC para su publicación no lo estandariza automáticamente. Debe ser reconocido como tal por la IETF sólo después de su experimentación, uso, y su aceptación como recurso útil para su propósito. Los estándares oficiales se numeran con un prefijo "STD" y un número, similar al estilo de nombramiento de RFCs. Aun así, incluso después de estandarizarse, normalmente la mayoría es referida por su número RFC.

En 1992, se formó una sociedad profesional, la Internet Society (Sociedad de Internet), y la IETF se transfirió a una división de la primera, como un cuerpo de estándares internacionales independiente.

La primera autoridad central en coordinar la operación de la red fue la NIC (Network Information Centre) en el Stanford Research Institute (también llamado SRI International, en Menlo Park, California). En 1972, el manejo de estos problemas se transfirió a la reciente Agencia de Asignación de Números de Internet (Internet Assigned Numbers Authority, o IANA). En adición a su papel como editor RFC, Jon Postel trabajó como director de la IANA hasta su muerte en 1998.

Así como crecía la temprana ARPANet, se establecieron nombres como referencias a los hosts, y se distribuyó un archivo HOSTS.TXT desde SRI International a cada host en la red. Pero a medida que la red crecía, este sistema era menos práctico. Una solución técnica fue el Domain Name System, creado por Paul Mockapetris. La Defense Data Network - Network Information Center (DDN-NIC) en el SRI manejó todos los servicios de registro, incluyendo los dominios de nivel superior .mil, .gov, .edu, .org, .net, .com y .us, la administración del servidor raíz y la asignación de los números de Internet, bajo un contrato del Departamento de Defensa de los Estados Unidos. En 1991, la Agencia de Sistemas de Información de Defensa (Defense Information Systems Agency o DISA) transfirió la administración y mantenimiento de DDN-NIC (hasta ese momento manejado por SRI) a Government Systems, Inc., que lo subcontrató al pequeño sector privado Network Solutions, Inc.

Como a este punto en la historia la mayor parte del crecimiento de Internet venía de fuentes no militares, se decidió que el Departamento de Defensa ya no fundaría servicios de registro fuera del domino de nivel superior .mil. En 1993 la National Science Foundation de la U.S., después de un competitivo proceso de puja en 1992, creó la InterNIC para tratar las localizaciones de las direcciones y el manejo de las bases de datos, y pasó el contrato a tres organizaciones. Los servicios de Registro los daría Network Solutions; los servicios de Directorios y Bases de Datos, AT&T; y los de Información, General Atomics.

En 1998 tanto IANA como InterNIC se reorganizaron bajo el control de ICANN, una corporación de California sin ánimo de lucro, contratada por el US Department of Commerce para manejar ciertas tareas relacionadas con Internet. El papel de operar el sistema DNS fue privatizado, y abierto a competición, mientras la gestión central de la asignación de nombres sería otorgada através de contratos.

Se suele considerar al e-mail como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse. Aunque la historia no es clara, entre los primeros sistemas en tener una facilidad así se encuentran Q32, de SDC's, y CTSS del MIT.

La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Existe un informe que indica transferencias de e-mail entre sistemas experimentales poco después de su creación. Ray Tomlinson inició el uso del signo signo @ para separar los nombres del usuario y su máquina, en 1971.

Se desarrollaron protocolos para transmitir el e-mail entre grupos de ordenadores centrales a tiempo compartido sobre otros sistemas de transmisión, como UUCP y el sistema de e-mail VNET, de IBM. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios vía UUCP.

Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniel y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, concretamente en en la lista de correo de sflovers se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.

A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella.

Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex" de Vannevar Bush y desarrollado a través de la investigación de Ted Nelson en el Proyecto Xanadu y la investigación de Douglas Engelbart en el NLS. Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer.

En 1991, Tim Berners-Lee fue el primero en desarrollar un implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias sin acogerse—nadie lo implementaría por él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería. Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelado después de HyperCard, fue ViolaWWW.

Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción de Mosaic en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore. De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.

Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web.

A medida que la Web creció, se crearon los buscadores y los directorios web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y Altavista (fundado en 1995) fueron los respectivos líderes de la industria.

Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores.

El tamaño de las bases de datos, que había sido sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.

El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el dogma de negocio establecido en la publicidad, las ventas por correo, CRM, y muchas más áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos empresarios tenían realmente talento en la administración de empresas y las ventas y crecieron; pero la mayoría eran simplemente gente con ideas, y no gestionaron el influjo de capital prudentemente. Además, muchos planes de negocios .com estaban fundamentados sobre el supuesto que usando Internet, evitarían los canales de distribución de los negocios existentes y por tanto no tendrían que competir con ellos; cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron abandonados en su negocio intentando romper los mercados dominados por negocios más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo.

La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía 5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja estaba yendo a toda velocidad. La mayoría de las .com había cerrado el negocio, después de haber quemado todo su capital riesgo, a menudo sin ni siquiera tener un beneficio bruto.

Al principio



AT Internet

AT Internet es una compañía privada que desarrolla productos para analizar los sitios web, intranet y sitios móviles. Provee soluciones en tiempo real desde 1995. La compañía se conoce comúnmente (especialmente en toda Francia) por el nombre de su producto principal, XiTi.

La compañía se fundó en 1995 por Alain Llorens como una agencia web para cambiar posteriormente su negocio hacia la analítica web en 1997.

Como parte de un movimiento estratégico para alcanzar una audiencia global, la compañía contrató a Nicolas Babin como COO y Vicepresidente Ejecutivo de Marketing. También ha establecido oficinas que atienden al resto de la Europa continental en el Reino Unido y España, así como Asia y Canadá.

En julio del año 2000, la rama de investigación de XiTi se creó para publicar diversos estudios e informes de evaluación comparativa sobre el comportamiento de los usuarios en Internet, las tendencias y preferencias. En el año 2004, XiTi fue elegido para llevar a cabo la medición de los sitios del Gobierno Francés. Este proyecto abarcó 2 años (2004 – 2006) cubriendo más de 70 sitios web. El objetivo era definir mejor las expectativas del público francés hacia la página web ministerial e interministerial así como medir su rendimiento.

Con carácter periódico se realizan además estudios de la penetración de los diversos navegadores web en Europa, así como de los buscadores más usados, webmarketing, así como de equipamiento de los usuarios.

Al principio



Páginas Presell

Se conoce como Páginas Presell a páginas de una web que hablan sobre otro sitio web en particular incluyendo enlaces a esta última con el fin último de incrementar su posicionamiento en buscadores.

Visto de esta forma las Páginas Presell son una técnica de posicionamiento en buscadores similar a los directorios de enlaces solo que en vez de clasificar enlaces clasifican artículos con enlaces.

La mayoría de sistemas de Páginas Presell se configuran como un blog ya que así se permite que los usuarios registrados publiquen sus propias entradas y luego el administrador del blog es quién decide cuales publicar de acuerdo a ciertas normas como una mínima calidad del texto, un máximo de enlaces, etc.

El beneficio directo de publicar una Página Presell es obtener un enlace a tu web en un sitio que habla de la temática de tu página. Sin embargo, el verdadero potencial de esta técnica está en el beneficio indirecto: Los buscadores (y en concreto Google) da más valor a ese enlace si la página en la que está tiene muchos enlaces de otras páginas del mismo tema y utilizando el mismo texto para enlazar. De esta forma se produce una simbiosis entre el propietario del sistema de Páginas Presell y sus usuarios: Estos últimos aportan el contenido al sistema a cambio de enlaces muy valiosos hacia sus webs.

Aunque en el mundo hispanohablante SEO (Optimización en Motores de Búsqueda) son pocos los sistemas disponibles en este momento, en el mundo anglosajón, las Páginas Presell son utilizadas como técnica SEO desde hace relativamente mucho tiempo (Presell Pages).

Al principio



Hacker de sombrero blanco

Un Hacker de sombrero blanco es el «héroe» o un buen chico, en jerga informática, donde se refiere a una ética hacker que se centra en asegurar y proteger los sistemas de TI. Estas personas suelen trabajar para empresas de seguridad informática las cuales los denominan, en ocasiones, «zapatillas o equipos tigre».

Otro ejemplo sería una película occidental en el que tal carácter se use un sombrero blanco en contraste con el villano del sombrero negro (el hacker de sombrero negro). Ejemplos de tales personajes son Red Ryder, Tom Mix, y La Lone Ranger.

En el Rito Escocés de la Francmasonería un sombrero blanco significa un grado de honor que ha sido otorgado a un miembro. También es conocido como el grado 33.

En los últimos años, los términos sombrero blanco y un sombrero negro han sido aplicados a la industria del posicionamiento en buscadores (Search Engine Optimization, SEO). Las tácticas de posicionamiento en buscadores de los hackers de sombrero negro, también llamada spamdexing, intento de redireccionar los resultados de la búsqueda a páginas de destino particular, son una moda que está en contra de los términos de servicio de los motores de búsqueda, mientras que los hackers de sombrero blanco, utilizan métodos que son generalmente aprobados por los motores de búsqueda.

Al principio



SMO

De las siglas en inglés Social Media Optimización, SMO es un término de marketing que hace referencia a la estrategia y conjunto de acciones llevadas a cabo en redes sociales y comunidades online con una finalidad publicitaria y/o comercial. El término fue generado por Rohit Bhargava y debido a la proliferación de sitios sociales, el tiempo que los usuarios pasan en ellos y los beneficios que aporta en términos de tráfico y posicionamiento en buscadores ha adquirido una gran relevancia por parte de empresas y expertos en marketing digital.

Al principio



Source : Wikipedia