Buscadores

3.4140386572086 (983)
Publicado por daryl 25/02/2009 @ 12:27

Tags : buscadores, internet, tecnología

últimas noticias
El buscador perfecto aún no se ha creado - Público
Wolfram Alpha y Bing, la nueva generación de buscadores, están intentando competir con el rey de las búsquedas, Google. El éxito de cada servicio varía en función del tipo de pregunta realizada Las búsquedas en Internet han sido tradicionalmente cosa...
Beemp3: un muy buen buscador de mp3 - Geekets
Algo que hay que señalar es que a diferencia de muchos otros buscadores de mp3 que existen, Beemp3 no dispone de reproductor propio ni puede integrarse con otras páginas, osea que no te proporciona ningún código para agregarlo a tu web....
La web de Iberdrola obtiene el certificado Doble A+Euracert de ... - Finanzas.com
Por otro lado, el Informe 2009 de Posicionamiento en Buscadores (SEO), elaborado por Traffic4U España y el máster de Ecommerce de la Universidad de Salamanca, sitúa a Iberdrola como la empresa energética española cuya página web posee la mayor calidad...
Apellido no anglosajón perjudica a buscadores de empleo en Australia - ADN.es
Las personas de apellido no anglosajón lo tienen mucho más difícil para encontrar trabajo en Australia, reveló hoy un nuevo estudio que ha puesto de relieve la discriminación que padecen algunas etnias en el país. El informe, elaborado por...
El 98% de los internautas vascos usa "Google" como buscador - soitu.es
El 97,7 por ciento de los internautas vascos usa "Google" como buscador y las páginas más visitadas son las de los medios de comunicación y las que ofertan ocio, según datos del Eustat. El 97,7 por ciento de los internautas vascos usa "Google" como...
Las ventajas de Bing, el nuevo buscador de Microsoft, sobre Google - La Jornada (México)
Bing, el nuevo motor buscador de Microsoft (http://www.bing.com), causó sensación al ser presentado recientemente, en parte porque representa una competencia venida muy a destiempo al gigante de los buscadores, Google. Más allá de la fanfarria de...
Sadiel integra los asistentes virtuales con la potencia de los ... - Cibersur.com
El proyecto ejecutado ha consistido en integrar los resultados obtenidos de las búsquedas semánticas que realizan los asistentes virtuales con los de los buscadores más populares, lo que dota al propio asistente de una mayor inteligencia a la hora de...
Microsoft busca disputar la hegemonía a Google con un nuevo buscador - ABC.es
Microsoft planea gastar unos 100 millones de dólares en una campaña de publicidad en todo tipo de medios de comunicación para promocionar su nuevo buscador Bing, con el que espera disputarle su hegemonía a Google, según ha informado la revista...
Google, Bing y Yahoo, la "liga de los buscadores" - Dminorias
La irrupción del nuevo buscador de Microsoft, Bing, anuncia la introducción de cambios en la "liga de los buscadores". El primer cambio es mental. Los tres "equipos" que compiten por el campeonato: Google, Yahoo y Microsoft saben que, a partir de ahora...
Jueza argentina no logra retirar su nombre del buscador Google - ADN.es
Un tribunal de alzada de Argentina revocó un dictamen de primera instancia que ordenaba a Google a bloquear en su buscador de internet el nombre de una jueza, informó hoy la prensa local. La Cámara de Apelaciones en lo Civil y Comercial Federal dejó...

Posicionamiento en buscadores

El posicionamiento en buscadores o posicionamiento web es el resultado de la recuperación de información en la base de datos de los grandes Motores de Búsqueda de Internet por el uso de algoritmos de búsqueda en el software.

La tarea de ajustar la información de las páginas que se pretenden hacer aparecer en primeras posiciones de los resultados es conocida como SEO, sigla en inglés de Search Engine Optimization, optimización para motores de búsqueda. Consiste en aplicar diversas técnicas tendientes a lograr que los buscadores de Internet sitúen determinada página web en una posición y categoría alta (primeras posiciones) dentro de su página de resultados para determinados términos y frases clave de búsqueda. También es entendido como las técnicas de desarrollo web que tengan como objetivo mejorar la posición de un determinado sitio web por sus páginas en la lista de resultados de los Motores de Búsqueda que en inglés se identifican como SERPs y forma parte de la jerga de los webmasters hispanohablantes.

La aplicación de técnicas SEO es intensa en sitios web que ofertan productos o servicios con mucha competencia, buscando el posicionar determinadas páginas sobre las de sus competidoras en la lista de resultados (SERPs).

Estrictamente hablando, se posicionan URLs de páginas. Los sitios logran buen posicionamiento como una consecuencia.

Las técnicas SEO pueden ser desmedidas y afectar los resultados naturales de los grandes buscadores por lo que si incumplen las cláusulas y condiciones de uso de los mismos pueden ser consideradas, en algunos casos, como una forma de SPAM, el spamdexing.

El trabajo es amplio, ya que el posicionamiento involucra al código de programación, al diseño y a los contenidos. También nos referimos a SEO para definir las personas que realizan este tipo de trabajo.

Para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a tu web y estudiar cuales de ellos tienen un contenido complementario. Si por ejemplo quieres posicionarte por el término "peluquería madrid" puede ser interesante intentar conseguir enlaces de peluquerías de otras ciudades. La temática será similar y no corres el riesgo de canibalización.

Los directorios han perdido mucho interés en los buscadores pero siguen siendo un buen punto de partida para conseguir enlaces o un primer rastreo de tu web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las web añadidas, pero también ralentiza y dificulta su inclusión.

Los frames, el javascript o las páginas en flash no permiten el rastreo / seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio plano por el cual no se puede navegar.

Cada página es una tarjeta de presentación para el buscador. Los Title y Description son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores.

Un sitemap (tanto el de google como uno presente en el site) nos permitirá dar paso al buscador por las diferentes secciones del site de una forma ordenada, mejorando su visibilidad.

Al principio



Historia de Internet

Number of internet hosts.svg

La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha desarrollado en un gran número de pasos. La unión de todos estos desarrollos culminó con la red de redes que conocemos como Internet. Esto incluía tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.

Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).

En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.

DESARROLLO WEB CECYT 14 LUIS ENRIQUE ERRO SOLER Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.

La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

Ascendido a jefe de la oficina de procesamiento de información en el ARPA, Robert Taylor intentó hacer reales las ideas de Licklider sobre un sistema de redes interconectadas. Junto con Larry Roberts del MIT, inició un proyecto para empezar con una red similar. La primera conexión de ARPANET se estableció el 21 de noviembre de 1969, entre la Universidad de California, Los Ángeles y el Instituto de Investigaciones de Stanford. Antes del 5 de diciembre de 1969, se había formado una red de 4 nodos, añadiendo la Universidad de Utah y la Universidad de California, Santa Barbara. Usando ideas desarrolladas en la ALOHAnet, la ARPANET se inauguró en 1972 y creció rápidamente hasta el 1981. El número de hosts creció a 213, con uno nuevo añadiéndose aproximadamente cada 20 días.

ARPANET se convirtió en el núcleo de lo que posteriormente sería Internet, y también en una herramienta primaria en el desarrollo de la tecnología del momento. ARPANET evolucionó usando estándares del proceso RFC, aún usado actualmente para proponer y distribuir protocolos y sistemas de Internet. El RFC1, titulado "Host Software", fue escrito por Steve Crocker desde la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969.

Las colaboraciones internacionales en ARPANET eran escasas; por varias razones políticas los desarrolladores europeos estaban preocupados en desarrollar las redes X.25, con la notable excepción del Norwegian Seismic Array en 1972 seguidos en 1973 por enlaces de los satélites a la estación terrestre de Tanum en Suecia y en la University College de Londres.

A partir de la investigación del DARPA, las redes de conmutación de paquetes fueron desarrolladas por la Unión Internacional de Telecomunicaciones (UIT) en forma de redes X.25. X.25 formó la base de la red entre la academia británica y otros sitios de investigación en SERCnet, en 1974, que más tarde pasaría a llamarse JANET. El Estándar inicial de X.25 según la UIT se aprobó en Marzo de 1976.

En 1978, la Oficina de Correos británica, Western Union International y Tymnet colaboraron para crear la primera red de paquetes conmutados internacional; refiriéndose a ella como "International Packet Switched Service" (IPSS). Esta red creció desde Europa y Estados Unidos hasta Canadá, Hong Kong y Australia antes del 1981, y pocos años después, creó una infraestructura de conexiones mundial.

Al contrario que ARPANET, X.25 estaba diseñado para poderse utilizar en oficina. Se usó para las primeras redes de teléfono de acceso público, tales como Compuserve y Tymnet. En 1979, CompuServe fue el primero en ofrecer posibilidades para el correo electrónico y soporte técnico a usarios de PCs. La compañía fue nuevamente pionera en 1980, como la primera en ofrecer chat con su CB Simulator. También estaban las redes de teléfono de America Online (AOL) y Prodigy, y varias redes BBS como The WELL y FidoNet. FidoNet era popular entre usuarios por hobby, parte de ellos hackers y radioaficionados.

En 1979, dos estudiantes de la Universidad de Duke, Tom Truscott y Jim Ellis, propusieron la idea de usar scripts simples en Bourne Shell para transefir noticias y mensajes entre su universidad y la cercana Universidad de Carolina del Norte, Chapel Hill. Después de la salida del software al dominio público, la red de hosts UUCP usada para noticias Usenet se expandió rápidamente. UUCPnet, nombre que acabaría recibiendo, también crearía portales y vínculos entre Fidonet y los hosts de marcaje,telefónico BBS. Las redes UUCP se distribuyeron rápidamente debido a su bajo coste y a su capacidad de usar las líneas alquiladas ya existentes, los vínculos X.25 o incluso las conexiones de ARPANET. Antes de 1983 el número de hosts UUCP ya había aumentado a 550, casi duplicándose hasta los 940 en 1984.

Por esta época había muchos métodos diferentes de conexionado, hacía falta algo para unificarlos. Robert E. Kahn del ARPA y ARPANET contrató a Vint Cerf de la Universidad de Stanford para trabajar con él en el problema. Antes del 1973, habían pensado en una reformulación fundamental, donde las diferencias entre los protocolos de red se escondían usando un protocolo de red común, y donde eran los hosts los encargados de ser fiables, y no la red. Cerf atribuye a Hubert Zimmerman y a Louis Pouzin (diseñador de la red CYCLADES) un importante trabajo en este diseño.

Con el rol de la red reducido al mínimo, se hizo posible juntar prácticamente todas las redes, sin importar sus características, resolviendo el problema inicial de Kahn. DARPA aceptó patrocinar el desarrollo del software prototipo, y tras muchos años de trabajo, la primera demostración (algo básica) de en cómo se había convertido al protocolo TCP/IP (en Julio de 1977). Este nuevo método se expandió rápidamente por las redes, y el 1 de Enero de 1983, los protocolos TCP/IP se hicieron los únicos protocolos aprobados en ARPANET, sustituyendo al anterior protocolo NCP.

Después que ARPANET estuviera funcionando por varios años, ARPA buscó otra agencia para ceder la red de ordenadores; la tarea primaria de ARPA era impulsar investigaciones y desarrollos de avanzada, no manejar un servicio público de comunicaciones. Eventualmente, en julio de 1975, la red se cedió a la "Defense Communications Agency" que también era parte del Departamento de Defensa. En 1984, la porción militar de ARPANET se dividió como una red separada, la MILNET.

Las redes basadas alrededor de ARPANET eran pagadas por el gobierno y por tanto restringidas a usos no comerciales tales como investigación; el uso comercial estaba estrictamente prohibido. Las conexiones se restringieron a sitios militares y universidades. Durante los 80s, las conexiones se expandieron a más instituciones educacionales, e incluso a un creciente número de compañías tales como Digital Equipment Corporation y Hewlett-Packard, que estaban participando en proyectos de investigación y suministrando servicios.

Otra rama del gobierno, la National Science Foundation (NSF), se volvió fuertemente involucrada en investigación en Internet y empezó un desarrollo como sucesor de ARPANET. En 1984 esto resultó en la primera red de banda ancha diseñada específicamente para usar TCP/IP. Esto creció como NSFNet, establecida en 1986, para conectar y proveer acceso a una cantidad de supercomputadores establecidos por la NSF.

Para entonces, ARPANET empezó a fusionarse con NSFNet, originando el término Internet, con, "una internet" definido como cualquier red que usase el protocolo TCP/IP. "La Internet" significaba una red global y muy grande que usaba el protocolo TCP/IP, y que a su vez significaba NSFNet y ARPANET. Hasta entonces "internet" e "internetwork" (lit. "inter-red") se habían usado indistintamente, y "protocolo de internet" se usaba para referirse a otros sistemas de redes tales como Xerox Network Services.

Como el interés en la expansión de las conexiones creció, y aparecieron nuevas aplicaciones para ello, las tecnologías de Internet se esparcieron por el resto del mundo. En 1984, University College London reemplazó sus vínculos por satélite transatlánticos por TCP/IP por medio del International Packet Switched Service (Servicio Conmutado de Paquetes Internacional).

Varios sitios que no podían conectarse directamente a Internet empezaron a hacerlo por medio de simples portales para permitir la transferencia de correo electrónico, siendo esta última por entonces la aplicación más importante. Esos sitios con sólo conexiones intermitentes usarían UUCP o Fidonet, y confiarían en los portales entre esas redes e Internet. Algunos servicios de portales fueron más allá del simple peering de e-mail, ofreciendo servicios como el acceso a sitios FTP a través de UUCP o e-mail.

La primera conexión ARPANET fuera de EEUU se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET.

En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Segal, coordinador TCP/IP dentro del CERN; buscando por consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción europea de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa. Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam.

Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1989, las universidades australianas se unieron al empujón hacia los protocolos IP para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia.

En Asia, habiendo construido la JUNET (Red Universitaria Japonesa) una red basada en UUCP en 1984 Japón continuó conectándose a NSFNet en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kobe. Singapur desarrolló TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992.

Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores cerraban un ojo sobre su operación.

Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.

Internet desarrolló una subcultura bastante significativa, dedicada a la idea de que Internet no está poseída ni controlada por una sola persona, compañía, grupo u organización. Aun así, se necesita algo de estandarización y control para el correcto funcionamiento de algo.

El procedimiento de la publicación del RFC liberal provocó la confusión en el proceso de estandarización de Internet, lo que condujo a una mayor formalización de los estándares oficialmente aceptados. El IETF empezó en enero de 1986 como una reunión trimestral de los muchos investigadores del gobierno de los Estados Unidos. En la cuarta reunión del IETF (octubre de 1986) se pidió a los representantes de vendedores no gubernamentales que empezaran a participar en esas reuniones.

La aceptación de un RFC por el Editor RFC para su publicación no lo estandariza automáticamente. Debe ser reconocido como tal por la IETF sólo después de su experimentación, uso, y su aceptación como recurso útil para su propósito. Los estándares oficiales se numeran con un prefijo "STD" y un número, similar al estilo de nombramiento de RFCs. Aun así, incluso después de estandarizarse, normalmente la mayoría es referida por su número RFC.

En 1992, se formó una sociedad profesional, la Internet Society (Sociedad de Internet), y la IETF se transfirió a una división de la primera, como un cuerpo de estándares internacionales independiente.

La primera autoridad central en coordinar la operación de la red fue la NIC (Network Information Centre) en el Stanford Research Institute (también llamado SRI International, en Menlo Park, California). En 1972, el manejo de estos problemas se transfirió a la reciente Agencia de Asignación de Números de Internet (Internet Assigned Numbers Authority, o IANA). En adición a su papel como editor RFC, Jon Postel trabajó como director de la IANA hasta su muerte en 1998.

Así como crecía la temprana ARPANet, se establecieron nombres como referencias a los hosts, y se distribuyó un archivo HOSTS.TXT desde SRI International a cada host en la red. Pero a medida que la red crecía, este sistema era menos práctico. Una solución técnica fue el Domain Name System, creado por Paul Mockapetris. La Defense Data Network - Network Information Center (DDN-NIC) en el SRI manejó todos los servicios de registro, incluyendo los dominios de nivel superior .mil, .gov, .edu, .org, .net, .com y .us, la administración del servidor raíz y la asignación de los números de Internet, bajo un contrato del Departamento de Defensa de los Estados Unidos. En 1991, la Agencia de Sistemas de Información de Defensa (Defense Information Systems Agency o DISA) transfirió la administración y mantenimiento de DDN-NIC (hasta ese momento manejado por SRI) a Government Systems, Inc., que lo subcontrató al pequeño sector privado Network Solutions, Inc.

Como a este punto en la historia la mayor parte del crecimiento de Internet venía de fuentes no militares, se decidió que el Departamento de Defensa ya no fundaría servicios de registro fuera del domino de nivel superior .mil. En 1993 la National Science Foundation de la U.S., después de un competitivo proceso de puja en 1992, creó la InterNIC para tratar las localizaciones de las direcciones y el manejo de las bases de datos, y pasó el contrato a tres organizaciones. Los servicios de Registro los daría Network Solutions; los servicios de Directorios y Bases de Datos, AT&T; y los de Información, General Atomics.

En 1998 tanto IANA como InterNIC se reorganizaron bajo el control de ICANN, una corporación de California sin ánimo de lucro, contratada por el US Department of Commerce para manejar ciertas tareas relacionadas con Internet. El papel de operar el sistema DNS fue privatizado, y abierto a competición, mientras la gestión central de la asignación de nombres sería otorgada através de contratos.

Se suele considerar al e-mail como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse. Aunque la historia no es clara, entre los primeros sistemas en tener una facilidad así se encuentran Q32, de SDC's, y CTSS del MIT.

La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Existe un informe que indica transferencias de e-mail entre sistemas experimentales poco después de su creación. Ray Tomlinson inició el uso del signo signo @ para separar los nombres del usuario y su máquina, en 1971.

Se desarrollaron protocolos para transmitir el e-mail entre grupos de ordenadores centrales a tiempo compartido sobre otros sistemas de transmisión, como UUCP y el sistema de e-mail VNET, de IBM. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios vía UUCP.

Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniel y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, concretamente en en la lista de correo de sflovers se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.

A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella.

Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex" de Vannevar Bush y desarrollado a través de la investigación de Ted Nelson en el Proyecto Xanadu y la investigación de Douglas Engelbart en el NLS. Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer.

En 1991, Tim Berners-Lee fue el primero en desarrollar un implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias sin acogerse—nadie lo implementaría por él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería. Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelado después de HyperCard, fue ViolaWWW.

Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción de Mosaic en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore. De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.

Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web.

A medida que la Web creció, se crearon los buscadores y los directorios web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y Altavista (fundado en 1995) fueron los respectivos líderes de la industria.

Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores.

El tamaño de las bases de datos, que había sido sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.

El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el dogma de negocio establecido en la publicidad, las ventas por correo, CRM, y muchas más áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos empresarios tenían realmente talento en la administración de empresas y las ventas y crecieron; pero la mayoría eran simplemente gente con ideas, y no gestionaron el influjo de capital prudentemente. Además, muchos planes de negocios .com estaban fundamentados sobre el supuesto que usando Internet, evitarían los canales de distribución de los negocios existentes y por tanto no tendrían que competir con ellos; cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron abandonados en su negocio intentando romper los mercados dominados por negocios más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo.

La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía 5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja estaba yendo a toda velocidad. La mayoría de las .com había cerrado el negocio, después de haber quemado todo su capital riesgo, a menudo sin ni siquiera tener un beneficio bruto.

Al principio



Marketing en Internet

La mercadotecnia en Internet es el estudio de las técnicas del uso de Internet para publicitar y vender productos y servicios. La Mercadotecnia en Internet incluye la publicidad por clic, los avisos en páginas web, los envíos de correo masivos, el marketing en buscadores (incluyendo la optimización en buscadores) y la mercadotecnia de bitácoras (blogs).

La Mercadotecnia en el mundo es un componente del Comercio Electrónico. Puede incluir la gestión de contenidos, las relaciones públicas, el servicio al cliente y las ventas. El Comercio Electrónico y la Mercadotecnia en Internet se han vuelto más populares en la medida en que los proveedores de Internet se están volviendo más accesibles. Más de un tercio de los consumidores que tienen acceso a Internet en sus hogares afirman haber utilizado Internet como medio para realizar sus compras.

Es uno de los cuatro paradigmas de marketing, según Phillip Kotler, que una empresa debe elegir como base para la aplicación de una estrategia.

La Mercadotecnia en Internet tuvo su origen a inicios de los años 90 en forma de páginas web sencillas, que sólo contenían texto y que ofrecían información de productos. Luego evolucionó en avisos publicitarios completos con gráficos. El paso más reciente en esta evolución fue la creación de negocios completos que operan desde Internet para promover y vender sus productos y servicios.

La Mercadotecnia en Internet está asociado con diversos modelos de negocio. Los principales incluyen el modelo Empresa a Empresa (B2B) y el modelo Empresa a Consumidor (B2C). El B2B (por sus siglas en inglés Business to Business) consiste en compañías que hacen negocio unas con otras, mientras que el B2C consiste en vender directamente al consumidor final. Cuando se originó La Mercadotecnia en Internet el B2C fue el primero en aparecer. Las transacciones B2B eran más complejas y llegaron después. Un tercer y no tan común modelo de negocio es el de usuario a usuario (P2P) donde los individuos intercambian bienes entre ellos. Un ejemplo de P2P es Bittorrent, que está construido sobre una plataforma de usuarios que comparten archivos o ficheros.

Algunos de los beneficios asociados con la Mercadotecnia en Internet es la disponibilidad de la información. Los consumidores pueden entrar en Internet y aprender sobre productos, así como adquirirlos las 24 horas del día. Las empresas que utilizan la Mercadotecnia en Internet pueden ahorrar dinero debido a una necesidad reducida de una fuerza de ventas. La Mercadotecnia en Internet puede ayudar a expandirse de un mercado local a un mercado nacional e incluso internacional.

Se habla del marketing en internet como marketing de resultados, marketing de retorno de inversión, o ROI marketing. Una de las ventajas que tiene este canal es la facilidad de análisis y optimización de las campañas. En todo momento podemos tener el control de la inversión y del presupuesto destinado a la campaña, y en función de esto realizar cambios de estructura mientras ésta corriendo.

Para poder entender y aprovechar mejor el marketing en internet es necesario conocer el embudo de conversión de nuestro producto, que generalmente tiene varias etapas.

1) Impresión de la creatividad. Impresión de la creatividad, en que mostramos al navegante de la red el producto o servicio que nosotros ofrecemos. La persona que navega en internet ve nuestra publicidad y tiene la opción de realizar la acción requerida o omitirla (en la mayoría de los casos es un click que llevará al sitio de destino).

2) Click en la creatividad. Click en la creatividad, en todos los casos de campañas de marketing de resultados, el objetivo de la creatividad es el click, ya estemos hablando de buscadores, email o banners, la intención del publicista es que el usuario haga click y sea redireccionado a una página dentro del sitio de la marca.

3) Registro como usuario. Registro como usuario, una vez que el potencial cliente está en el sitio, ahora el objetivo es conocerlo, y para esto lo mejor que se puede hacer es presentarle un formulario de inscripción para que deje sus datos y podamos asignarle un perfil de usuario. Generalmente el formulario no tendría que ser muy extenso ya que podriamos intimidar al potencial cliente y éste no querrá continuar navegando nuestro sitio, pero es común encontrar opciones de inscripción en la que el email y nombres son requeridos. Una vez que tenemos estos datos del cliente, podremos comunicar con él en relación a nuestra oferta de valor.

4) Intención de adquisición. Intención de adquisición, en el momento que le hemos interesado al potencial cliente, y él ha mostrado interés, la intención de compra, es el examen que tendremos que pasar para poder decir que el objetivo esta cumplido. Una intención de compra es cuando el potencial cliente ingresa un método de pago al sitio de la marca e intenta obtener el producto o servicio que ésta ofrece. Existen varios motivos por los cuales esta intención puede ser frustrada, y ahora es la oportunidad de nuestro departamento de atención al cliente para ayudar a nuestro potencial cliente a convertirlo en uno, y mejor aún, en un cliente feliz y satisfecho.

5) Adquisición.

Adquisición, no sólo hemos conseguido interesar a alguien con nuestra acción de marketing, sino que también lo hemos llevado al sitio. No sólo que lo hemos llevado al sitio, sino que también lo hemos registrado como un potencial cliente. No solo lo hemos interesado como un potencial cliente, sino que también ha intentado realizar una compra. Y finalmente, no solo ha intentado realizar una compra, sino que también lo ha conseguido con exito!! Felicitaciones! hemos tenido una acción de marketing exitosa. Analisis de resultados Ahora, analicemos un poco con ojos monetarios que es lo que acabamos de hacer. Supongamos que el presupuesto para ésta acción es de $100 y que hemos obtenido los siguientes resultados: 100    impresiones 25     clicks 15     cantidad de registros 10     cantidad de intentos de adquisición 5       cantidad de adquisiciones Podemos decir que los resultados de la campaña, en valores absolutos, son los mostrados en la tabla anterior. Ahora, que quiere decir que hemos tenido por ejemplo, 15 registros? Es mucho? es poco? Lo que sí sabemos es que no es suficiente, ya que de todos modos nosotros vamos a querer tener más, o que en otras palabras los objetivos de la campania requieren mejores resultados. Este es uno de los pilares de nuestro marketing, en que si da resultados, siempre vamos a querer más. Volviendo al ejemplo de los 15 registros. nosotros no decimos que hemos conseguido 15 registros con $100 sino que cada uno nos ha costado $6,67 ($100/15), o sea que nuestro costo por registro es de $6,67. Del mismo modo, nuestro costo de adquisicion es de $20 ($100/5).

Para poder hacer el calculo del ROI, que de eso en definitiva estamos hablando cuando hacemos marketing de resultados, lo que necesitamos saber es cuanto vale para nosotros cada adquisicion o compra. Supongamos que por cada cliente nuevo nosotros vendemos, en promedio, un total de $35, podemos decir que cada cliente nos aporta un valor de $35. Si sabemos que nuestro costo de adquisicion de cada cliente nuevo es de $20, y que cada uno de ellos vale para nosotros $35, entonces decimos que nuestro ROI es de 1.75 o 175% (beneficio/costo) y que basicamente lo que hemos conseguido con nuestra campaña es una ganancia de $75, multiplicando así nuestro presupuesto inicial por 1.75 o incrementándolo en 175%.

Las limitaciones de la Mercadotecnia en Internet pueden crear problemas tanto para compañías como para consumidores. Las conexiones lentas a Internet pueden provocar dificultades. Si las empresas colocan demasiada información en sus páginas web, los usuarios finales pueden tener dificultades para descargar la página. Además, la Mercadotecnia en Internet no permite a los compradores tocar ni probar los productos antes de comprarlos.

Tanto para las empresas como para los consumidores que participan de los negocios electrónicos, la seguridad es un tema de importancia. Muchos consumidores tienen dudas sobre si comprar productos en la red por que no confían que al entregar su información personal esta se mantenga privada. Recientemente, algunas compañías que realizan negocios en línea han sido encontradas entregando o vendiendo información de sus propios clientes. Varias de estas empresas poseen garantías en sus páginas web, declarando que la información de sus consumidores se mantendrá en privado. Al vender la información de sus clientes estas compañías rompen sus propios compromisos de privacidad, publicados en sus sitios web. Algunas de las compañías que compran esta información permiten a los usuarios ser quitados de las listas. Sin embargo muchos consumidores desconocen que su información está siendo difundida y no pueden detener la transferencia de información entre compañías.

Los problemas de seguridad son de gran importancia y las compañías en línea han estado trabajando duro para crear soluciones. El cifrado de los datos es uno de los métodos principales para lidiar con los problemas de privacidad y seguridad en Internet. El cifrado se puede definir como la conversión de datos en cifras codificadas. Estas cifras no pueden ser fácilmente interceptadas a menos que un individuo esté autorizado por el programa o la compañía que realizó en cifrado. En general, cuanto más sólido es el cifrado, mejor es la protección de los datos. Sin embargo, cuanto mejor es el código de ciframiento, más caro se vuelve el cifrado de datos.

La Mercadotecnia en Internet ha tenido un amplio impacto en diversas industrias incluyendo la música, la banca y los mercados de segunda mano. En la industria de la música muchos consumidores han comenzado a comprar y descargar archivos MP3 en Internet en lugar de comprar musica en soporte CD. El debate sobre la legalidad de descargar archivos MP3 se ha convertido en una preocupación mayúscula para aquellos en la industria de la música.

La Mercadotecnia en Internet también ha afectado a la industria bancaria. Más y más bancos están ofreciendo la posibilidad de realizar operaciones bancarias en línea. Se cree que la banca en línea ha sido atractiva a los consumidores debido a que resulta más conveniente que visitar una agencia bancaria. Actualmente más de 50 millones de adultos en los EEUU utilizan la banca por internet. La banca en línea es la actividad en Internet de más rápido crecimiento. El incremento en las velocidades de conexión a Internet es la razón principal de este crecimiento. De aquellos individuos que utilizan Internet en EEUU, un 44% realizan operaciones bancarias en la red.

Con el aumento en la popularidad de las subastas en línea, los mercadillos o mercados de segunda mano están tambaleandose. Objetos únicos que antes solo se conseguían en mercadillos están siendo vendidos en Ebay.com actualmente. Ebay.com también ha afectado los precios en la industria. Compradores y vendedores con frecuencia buscan los precios en la página web antes de ir al mercado de pulgas y el precio publicado en Ebay.com con frecuencia resulta el precio final de la venta. Más y más vendedores de mercados de pulgas están colocando sus artículos en Internet y operando sus negocios desde casa.

Al principio



Motor de búsqueda

Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas.

Hoy en día el Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.

La mayoría de grandes buscadores internacionales de uso habitual y conocidos son de este tipo. Requieren muchos recursos para su funcionamiento. No están al alcance de cualquiera.

Una tecnología barata, ampliamente utilizada por gran cantidad de scripts en el mercado. No se requieren muchos recursos de informática. En cambio, se requiere más soporte humano y mantenimiento.

Ejemplos de directorios: Antiguos directorios, Open Directory Project, Yahoo!, Terra (Antiguo Olé). Ahora, ambos utilizan tecnología de búsqueda jerárquica, y Yahoo! conserva su directorio. Buscar Portal, es un directorio, y la mayoría de motores hispanos son directorios.

FFA (acrónimo del inglés "Free For All"), página de enlaces gratuitos para todos. Cualquiera puede inscribir su página durante un tiempo limitado en estos pequeños directorios. Los enlaces no son permanentes.

Buscadores especializados en un sector concreto, lo que les permite analizar la información con mayor profundidad, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.Es importante resaltar que utilizan indices especializados de esta manera acceder a la información de una manera más específica y fácil. (Nélida Colina). Ejemplos de este tipo de buscadores en España son: Trovit y nestoria.

El primer buscador fue "Wandex", un índice (ahora desaparecido) realizado por la World Wide Web Wanderer, un robot desarrollado por Mattew Gray en el MIT, en 1993. Otro de los primeros buscadores, Aliweb, también apareció en 1993 y todavía está en funcionamiento. El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A diferencia de sus predecesores, éste permitía a sus usuarios una búsqueda por palabras en cualquier página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue también el primero darse a conocer ampliamente por el público. También apareció en 1994 Lycos (que comenzó en la Carnegie Mellon University).

Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Northern Light y Altavista. De algún modo, competían con directorios (o índices temáticos) populares tales como Yahoo!. Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscadores para aumentar su funcionalidad.

Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos, como el buscador Archie, para sitios FTP anónimos y el motor de búsqueda Verónica, para el protocolo Gopher.

En el 2008,Yeremi Alejandro lanzo y Con Un Buscador Potente Llamado Emx Search. Despues de varios Meses Yeremi Lanzo Otro Buscador Mas ligero,más rapido llamado iYeremi Search Con el estilo de Con enlaces de Youtube,Apple,Microsoft y La busquedad en imagenes de Si mismo. Para Mediado de Marzo Yeremi Va a Lanzar iYeremi Search Para Firefox y Opera....

Google y muchos otros buscadores no sólo usaban PageRank, sino más de 150 criterios para determinar la pertinencia de una página.

El buscador Visual Finder, patentado y de origen español, es un buscador de portal (in-portal search) que ofrece una serie de beneficios diferenciales frente a los buscadores de portal tradicionales, como los combos o desplegables y los buscadores de texto.

Trovit es un buscador vertical de anuncios clasificados para los sectores de empleo, coches y vivienda. Trovit está presente en doce países de Europa y Latino-américa.

El motor de búsqueda corporativo de Exalead, también cuenta con una versión de búsqueda para internet. Cuenta con un potente buscador desktop para usuarios que permite indexar un número ilimitado de documentos, permitiendo buscar en más de 100 tipos de archivos, incluyendo emails, adjuntos a emails, documentos de oficina, PDFs, imágenes, archivos de audio, vídeo clips y más.

Búsqueda de la proximidad que apoya al operador NEAR Expresiones jerarquizadas de la búsqueda. Consejos. Búsqueda específica: por localización geográfica. por lengua. por el tipo del archivo. Sugerencias de palabras adicionales. La búsqueda fonética está también disponible, pudiendo ser utilizada cuando se desconoce la ortografía Búsqueda dentro de los resultados. Audio, vídeo y búsqueda de RSS (en de la inspección previa también imágenes). Exalead permite búsqueda con expresiones regulares y se pueden utilizar para solucionar crucigramas y utilizar en algoritmos IR.

Buscador Italiano que sirve para buscar también en español. Potente y con un interfaz agradable.

En 2004, Yahoo! lanzó su propio buscador basado en una combinación de tecnologías de sus adquisiciones y proporcionando un servicio en el que ya prevalecía la búsqueda en Webs sobre el directorio.

El más reciente de los grandes buscadores es Live (antes MSN Search), de Microsoft, que previamente dependía de otros para listar sus búsquedas. En 2004 debutó una versión beta con sus propios resultados, impulsada por su propio robot (llamado msnbot). Al principio de 2005 comenzó la versión definitiva.

El mercado está ahora dominado por Google, Yahoo y Microsoft. El resto de grandes buscadores tienden a ser portales que muestran los resultados de otros buscadores y ofrecen, además, otro tipo de contenidos que tienen mayor o menor importancia en la página como hace el propio Yahoo!

Noxtrum fue el primer motor de búsqueda global diseñado por una empresa española, Telefónica Publicidad e Información, S. A. (TPI), lanzado al mercado en versión Beta el 1 de diciembre de 2005. Realizaba búsquedas en internet del mundo hispanohablante.

Noxtrum partía de la implementación de FAST para construir su propio motor de búsqueda, con lo que realmente no contaba con tecnología de búsqueda propia, sino que adaptaba al español la tecnología usada en su día por navegadores como AllTheWeb, hoy propiedad de Yahoo.

El 3 de abril de 2008 el buscador dejó de estar operativo, después de que Yell lo adquiriera junto con Páginas Amarillas y reestructurara su cúpula directiva.

Actualmente ya no existe. Cerró sus puertas.

Es un buscador no muy completo pero sirve para diversas búsquedas, sus páginas la mayoría son en inglés, a menos que la búsqueda se especifique en español, es un buscador donde se pueden encontrar varias páginas donde esté la información buscada, cuenta con enlaces directos a las páginas de interés donde localizar lo que se busca; es efectivo para búsquedas precisas.

Ask es un buscador donde se puede preguntar (como dice su nombre en inglés "ask" es preguntar) por lo que se busque, ya sea la respuesta a una duda o simplemente encontrar algún archivo en concreto.

Potente buscador vertical de inmuebles basado en la tecnología de heritrix, posee la peculiaridad de transformar las consultas a lenguaje natural.

Cuásar es un motor de búsqueda de desarrollo completamente español, inteligente y modular. Su primera aplicación práctica es Cunoticias: ,buscador de noticias de actualidad.

Al principio



Source : Wikipedia