Diseño Web, Registro de dominio y Hospedaje Web

jueves, 25 de marzo de 2010

La publicidad en internet creció 30%

El último reporte de IAB Colombia muestra que 2009 fue otro año de crecimiento acelerado de la inversión publicitaria digital en el país.
La facturación de publicidad en Internet creció 30% en 2009 comparada con la cifra de 2008. Según el último reporte de la IAB Colombia, se vendieron $52.800 millones en el año.

"El reporte, conducido por PricewaterhouseCoopers, revela que las compañías colombianas confían en la publicidad online como una herramienta efectiva, confiable y con la que se pueden medir realmente los alcances de una campaña publicitaria", dice el informe.

Este tipo de publicidad gana terreno rápidamente por cuanto la penetración de internet en Colombia ya alcanza el 46,2%, es decir, 20,8 millones de usuarios.

Las agencias interactivas y las centrales de medios afiliadas a IAB Colombia, reportaron $20.778 millones de ingresos por venta de medios digitales, frente a $17.836 millones del 2008, lo que significa un crecimiento del 16%. Por su parte, el monto invertido en motores de búsqueda fue de $3.957 millones contra $1.241 millones del 2008, lo que representa un incremento del 219%. Si bien esta facturación solo representa el 3% de las ventas totales de publicidad, la tasa de crecimiento de la actividad es la más importante del mercado.

"El mayor porcentaje de los anteriores ingresos fueron producidos en un 69% por grandes anunciantes, seguidos en participación por los pequeños y medianos anunciantes con un 25% y por los anunciantes del exterior con un 6%", señaló IAB.

De otra parte, el informe reveló que los principales sectores de la economía que invirtieron en medios digitales el año pasado fueron telecomunicaciones, productos de consumo masivo, servicios financieros, automotríz, turismo y cervezas, vinos y licores .

De acuerdo con el reporte de IAB Colombia, el 2009 fue un año importante para los medios digitales. Durante ese año la inversión registró un incremento en ingresos del 24% con $47.726 millones, frente a $38.473 millones del 2008, siendo los anunciantes nacionales los de mayor participación con un 47%, seguidos por pequeños y medianos anunciantes con un 40%.

Aumenta 20% uso de internet en hogares mexicanos

Ciudad de México.- El acceso a internet aumentó 20 por ciento en el país durante el año pasado, llegando a 7.1 millones de hogares, afirmó la Asociación Mexicana de Internet (AMIPCI).

De acuerdo con un estudio realizado por la AMIPCI, las residencias siguen siendo los principales lugares con acceso a la red, pues cerca de 71.2 por ciento ocupan la herramienta tecnológica.
El vicepresidente del comité de infraestructura de la AMIPCI, Ángel Martínez, subrayó la importancia de coordinar los esfuerzos público y privado, a fin de aprovechar las ventajas de las tecnologías de la información y la comunicación (TIC) como una manera de impulsar la competitividad del país.


En el mismo estudio se señaló que creció de 6 a 8 por ciento el uso de internet en los teléfonos móviles, de los cuales se destaca un alza de 29 por ciento de los denominados smartphone o teléfono inteligente.


Axel Sánchez

Internet Explorer 9 no será compatible con Windows XP

Internet Explorer 9 no se llevará bien con el sistema operativo Windows XP. El nuevo navegador deMicrosoft, cuya versión de desarrollo fue lanzada al gran público el pasado 16 de marzo, ya no será compatible con Windows XP, el sistema más apreciado de la historia después de que Microsoft se atreviera a sacar a relucir a un fallido Windows Vista. Un sistema rechazado por la gran mayoría que no contó con el apoyo de los usuarios. Es precisamente por eso que Microsoft decidió ampliar la compatibilidad con Windows XP hasta 2011. Ahora, los de Redmond claman a la migración hacia Windows 7, el esperanzador sistema operativo que en octubre de 2009 lanzó Microsoft.

Se avecinan malos tiempos para Microsoft. Aunque las ventas de Windows 7 han sido más que notables, el navegador Internet Explorer va perdiendo muchísimos usuarios por el camino. En Europa el decrecimiento también se ha notado. Sobre todo después de que la Unión Europea obligara a Microsoft a ‘dejar elegir’ navegador a los usuarios de Windows, una medida que se puso en vigor el pasado 1 de marzo. Justo cuando los internautas pudieron descargar una actualización que les permitía elegir entre los principales navegadores: Firefox, Chrome, Opera y Safari.

El caso es que Microsoft ha decidido cortar por lo sano y dejar a un lado la compatibilidad de la versión número nueve de su navegador con el sistema menos vilipendiado de su historia, Windows XP. La razón de este giro tiene que ver con las limitaciones del sistema operativo cuanto a rendimiento y seguridad a la hora de acoplarse con Internet Explorer 9. Un navegador que soportará el estándar HTML 5 y contará con un motor JavaScript a la altura de las circunstancias.

Mientras tanto, a Microsoft no se le ha ocurrido otra cosa que pedir a sus usuarios particulares y aempresas, la migración a Windows 7. Según los de Redmond, el sistema operativo les ofrecerá mucha másseguridad y les protegerá de virus y ataques no deseados.

Fotos de: Kit Hartford y umpcportal


Google Chrome beta para Linux ha sido actualizado a la V.5.0.342.7

Los usuarios de Linux ya pueden disfrutar de la primera versión beta 5.0 del famoso y rápido navegador Web Google Chrome.

Esta nueva versión para el sistema operativo Linux incluye la construcción de las traducciones automáticas, característica que fue añadida en la versión Chrome 4.1 para Windows, así como una opción llamada Shift Reload, que hará que el navegador Web ignore la fecha del caché y permita su actualización cuando se desee.

La nueva versión Google Chrome 5.0.342.7 para Linux también permite un mayor control sobre el contenido, lo que significa que puedes elegir qué sitios pueden almacenar cookies, cargar imágenes, utilizar plug-ins, ejecutar JavaScript o mostrar pop-ups: una buena forma de aumentar la privacidad e incluso ayudar a esquivar el malware.
Ya no tienes escusa, actualiza tu navegador, o cámbiatelo desde aquí.

lunes, 22 de marzo de 2010

Se cuelan los primeros detalles del Explorer 9


Una versión de prueba se puede descargar desde el site de Microsoft
En la conferencia de desarrolladores MIX10, Microsoft presentó una primera versión preliminar de su próximo navegador de Internet IE9.

Esta aplicación, según reseñó e4l site LaFlecha.net, pretende establecer soporte a múltiples componentes HTML5, XHTML, parsing, y las pestañas de video y audio, para la aceleración de gráficos y textos por hardware.

Internet Explorer 9 es el primer navegador para obtener patrones estándar de web que utilizan los desarrolladores y funcionan mejor en ordenadores modernos a través de Windows", dijo Dean Hachamovitch, gerente de Internet Explorer de Microsoft.

"Internet Explorer 9 permite la aceleración HTML5 por GPU, que es un hito, para la computación visual", dijo Drew Henry, gerente ejecutivo de la GPU GeForce e ION de Nvidia Corp. "Al aprovechar la potencia de las GPU de Nvidia, Internet Explorer 9 elimina el techo de cristal para los desarrolladores web, que posibilita la construcción rica en gráficos y aplicaciones web de alto rendimiento".

Ya existe disponibilidad de la herramienta para probarla. Sin embargo, quien desee hacerlo debe tomar en cuenta que solo funciona bajo Windows 7 y Windows Vista Service Pack 2 (en 32 y 64 bits). Se puede descargar gratis desde la web oficial de Microsoft.

Google presenta su herramienta de seguridad Skipfish


Por Rosalía Arroyo
Google ha lanzado una nueva herramienta de desarrollo diseñada para descubrir agujeros de seguridad en aplicaciones web. La compañía afirma que la nueva herramienta, bautizada como Skipfish, permitirá a los desarrolladores explorar aplicaciones web en busca de posibles vulnerabilidades. Actualmente en beta, la herramienta está diseñada para soportar múltiples marcos de trabajo y funcionar con Windows, Linux, Mac OS X y BSD.

Según ha explicado Google en su blog, la velocidad y compatibilidad fueron las prioridades principales cuando diseñaron la herramienta. Skipfish fue escrita en C. Google también afirma que la seguridad de Internet es muy importante, por lo que hay que ayudar a los desarrolladores a crear con seguridad, ya que la fiabilidad de las aplicaciones web es muy importante.

Proteger las aplicaciones web y los servicios de ‘cloud computing’ se ha convertido en uno de los principales asuntos de seguridad en los últimos tiempos, ya que analistas y desarrolladores han percibido una falta de confianza en las aplicaciones web.

Google empieza a indexar los resultados de Twitter y Facebook


Google está a la última cuando se trata de indexar resultados de interés. Por eso desde hace unos días, los comentarios más interesantes que se producen en las redes sociales Twitter y Facebook ya forman parte de la lista de resultados que encontramos al teclear en la caja buscadora de Google para buscar información. Desde este mismo fin de semana, la compañía de Mountain View ha incluido las búsquedas en versiones de varios países, entre los que también se encuentra España. El primer reto de Google es el de indexar contenidos relevantes, de manera que tendrán que emplearse en distinguir la información más útil de la que no lo es tanto.

Para que los resultados puedan ser indexados, el usuario con cuenta abierta en Facebook o Twitter tendrá que autorizar el contenido para que lo vean todos los públicos. De esta forma, Google seleccionará los resultados para referenciarlos según sea interesantes o no para los usuarios. En este sentido, la compañía también priorizará a los usuarios que se conecten a Internet a través de sus teléfonos móviles y más en concreto de Android y iPhone. Google adaptará los resultados de estas búsquedas según su geolocalización puntual.

Como decíamos, el éxito de este nuevo añadido dependerá del filtrado de las búsquedas, es decir, de la calidad de los resultados que aparecerán indexados. El portavoz de Google, Dylan Casey, ha indicado que se tendrá en cuenta la popularidad del perfil de cada red social, así como también varios datos de relevancia que se cruzarán para sacar a relucir resultados interesantes. Además de las noticias publicadas en los medios de comunicación y blogs más relevantes, Google considera oportuno indexar otros contenidos que seguramente también puedan resultar útiles para los internautas.

Fotos de: manfrys, tonyhall y stevegarfield

miércoles, 17 de marzo de 2010

Facebook destrona Google en Estados Unidos


Redacción
BBC Mundo
El buscador en internet Google fue destronado del primer lugar del ranking de visitas en Estados Unidos la semana pasada, no por otro sitio de búsqueda, sino por la red social Facebook.

La firma de analistas Experian Hitwise informó quela página de inicio de Facebook terminó la semana que culminó el 13 de marzo con el 7,07% de tráfico en internet en ese país, relegando a un segundo lugar al buscador de Google, que registró el 7,03%.

La directora de la empresa que lleva la estadística de las visitas en EE.UU., Heather Dougherty, describió como "hito importante"que Facebook, un sitio dedicado a la interacción social, no sólo superara al gigante estadounidense, sino que en un año haya conseguido aumentar su tráfico en el 185%, comparado con la misma semana en 2009.

No obstante, este logro sólo se toma en cuenta contando únicamente las visitas del buscador Google, porque si se juntan los hits que Google Inc. (que agrupa el servicio de correos Gmail, YouTube y Google Maps) recibió esa misma semana, entonces otra sería la historia.
En total los sitios más populares de Google acapararon el 11,03% del tráfico en el mercado estadounidense.

Algunas pistas
Si bien estas cifras son noticia hoy, es posible que Google viniera sospechando que su reinado podía acabar. El día de Navidad y Año Nuevo ya Facebook lo había superado en visitas.
“Las redes sociales no son algo nuevo, pero su papel como grandes proveedores de noticias definitivamente lo es.” Stephen Chittenden, BBC

Es posible que la relevancia social de esos días haya catapultado a la red social al primer lugar. Pero, ¿qué hizo que el fin de semana del 6 y 7 de marzo de este año volvieran a acaparar el tráfico en Estados Unidos?

"Las redes sociales no son algo nuevo, pero su papel como grandes proveedores de noticias definitivamente lo es", explicó hace unas semanas el periodista de la BBC Stephen Chittenden cuando Hitwise catalogó a Facebook como el cuarto sitio más importante, no sólo en EE.UU., detrás de Google, Yahoo y MSN.

Basándose en el comentario que un estudiante universitario hizo en un debate: "Si la noticia es importante, me encontrará", Chittenden decidió -como experimento- desconectarse de los buscadores y sitios de noticias para concentrarse en sitios como Twitter y Facebook.
"Claves sociales"

Quizás él no haya sido el único. Quizás por eso el presidente de Google, Eric Schmidtm, haya repetido en las últimas conferencias y entrevistas que la clave está en las redes sociales.

“ Un nuevo invento en la internet es la habilidad de utilizar claves sociales, mapas sociales, información social... para tomar mejores decisiones. La información social que estamos recibiendo es sólo otra aportación para una mejor clasificación.” Eric Schmidt, presidente de Google

"Un nuevo invento en internet es la habilidad de utilizar claves sociales, mapas sociales, información social... para tomar mejores decisiones. La información social que estamos recibiendo es sólo otra aportación para una mejor clasificación", le dijo hace poco a la BBC.
clic Lea: Un mundo Google sin idiomas

Por eso tal vez un nuevo producto de Google es el Buzz, que mezcla el micro blogging de Twitter y el sitio de Facebook.

Este último no es ajeno a la contienda, pues en respuesta ha mejorado su servicio de correos que algunos expertos comparan con el Gmail.

No obstante, cuando vamos a los números, Facebook parece ser el preferido de internet. Según la firma comScore, en diciembre registró unos 400 millones de usuarios únicos en contraste con los 176 millones que tuvo Gmail.

martes, 16 de marzo de 2010

El dominio ".com" cumple 25 años

El 15 de marzo de 1985 un fabricante informático hoy desaparecido, Symbolics, registró el primer dominio ".com" de Internet. Al cabo de 25 años, más de 80 millones de sitios activos están registrados bajo este dominio. En 1985, se registraron seis ".com". En 1997 ya eran un millón. En los dos siguientes años se apuntaron 20 millones. El ".com" está controlado por la empresa Verisign. Según la compañía, a finales de 2009, en Internet había 192 millones de dominios de distinto tipo, 15 millones más que a finales de 2008.

Inicialmente, se pensó en crear el dominio ".cor",ya que iba destinado a las empresas. Al final, se creó el ".com" con un concepto más genérico, el de acoger a todos los sitios que tuvieran un fin comercial. Pero al dominio se han apuntado proyectos en la Red que no tiene un propósito comercial exclusivamente. Tras Symbolics, se registraron los ".com" BBN, Think, MCC y DEC. Xerox lo hizo en enero de 1986. Sun, HP, Intel e IBM, en marzo de aquel año.

Mañana se celebrará en San Francisco un gala conmemorativa en la que está anunciado un discurso del ex presidente Bill Clinton. Éste tuvo un papel central en la creación del actual sistema de gobierno de los dominios en Internet. Por razones históricas de su nacimiento, Internet estuvo en manos de la administración norteamericana hasta que en 1998 se creó una organización privada, bajo las leyes estadounidenses, ICANN, a las que el departamento de Comercio del Gobierno Clinton delegó la autoridad sobre los dominios. ICANN, por ejemplo, decide la creación de nuevos dominios y las condiciones de registro de los mismos. Su existencia ha estado envuelta en perpetuos debates. Países como Brasil o China han criticado su dependencia formal de la administración norteamericana y han propuesto que la autoridad mundial de los dominios pase a manos de una agencia de la ONU. Pero los países desarrollados temen que este tipo de fórmula politice la gestión y pierda agilidad. ICANN ha ido modificando su estructura para dar mayor voz a los gobiernos.

Durante la gala, se otorgarán una serie de reconocimientos a las personas y empresas que han impulsado el ".com". En la lista de candidatos figuran compañías chinas como Alibaba (participada por Google) y el buscador líder en aquel país, Baidu. Entre las compañías nominadas hay nombres históricos de Internet como Cnet, Apple, AOL, Google, la india Infosys, la base de datos cinematográfica Internet Movie Data Base (adquirida por Amazon), el sitio de citas Match, Microsoft, Napster (que introdujo el intercambio de archivos), el navegador Netscape, el sitio de música Pandora, el sistema de pagos en línea PayPal, Twitter, YouTube y la revista Wired. Uno de los padres de Internet, Vint Cerf, y el creador de la web, Tim Berners-Lee, también figuran en la lista. Un sitio especial ha sido abierto para celebrar este cumpleaños.


La popularidad de este dominio provocó la aparición de ciberokupas que registraban nombres muy conocidos que pertenecían a otras personas o compañías y obligó a elaborar normas para su persecución. En el año 2000, por ejemplo, Madonna ganó un pleito para recuperar Madonna.com.


Este dominio va asociado, también, a la llamada burbujapuntocom que estalló el 10 de marzo de 2000. La cotización de los portales de Internet, muchos con más supuestas expectativas que negocio real, se había disparado en la bolsa. La burbuja fue creciendo hasta los 5.048 puntos que alcanzó el Nasdaq por aquellas fechas. Pero este horizonte de crecimiento se desinfló repentinamente. Los inversores volvieron a exigir a las compañías un modelo de negocio claro y un año después del desastre, el índice de empresas tecnológicas de Wall Street, aún cotizaba por debajo de los 2.000 puntos.

En la actualidad hay un variado repertorio de dominios, des de los .gov o .net, a los que identifican un país (.es, .fr...) o un dominio lingüístico (.cat). La semana pasada, ICANN aplazó tomar una decisión sobre la petición de un nuevo dominio, .xxx, destinado a los sitios dedicados a la pornografía comercial.

Este año, Internet ha sido propuesto para el premio Nobel de la Paz.

domingo, 14 de marzo de 2010

Un juez avala la legalidad del P2P y de las webs de enlaces para descargas

Los internautas califican esta sentencia de "histórica" y creen que definirá "el futuro" de la red

El magistrado titular del Juzgado de lo Mercantil número 7 de Barcelona, Raúl N. García Orejudo, ha desestimado la demanda de la Sociedad General de Autores y Editores (SGAE) contra la página web elrincondejesús.com, al entender que esta web de intercambio de archivos se limitaba a ofrecer la posibilidad de descarga a través de redes peer to peer (P2P), pero no distribuía contenidos sujetos a propiedad intelectual. La Asociación de Internautas consideraron la sentencia como "un punto de partida para el futuro de internet".

El juez que ha rechazado la demanda de la SGAE argumenta en la sentencia, a la que ha tenido acceso Europa Press, que el sistema de enlaces constituye "la base misma de internet" y que, al no quedar almacenado ninguno de los archivos, se limita a ofrecer la posibilidad de descarga a través de la red P2P. Por eso, el magistrado considera que el sistema de links no supone "distribución ni reproducción, ni comunicación pública de las obras protegidas".

El escrito añade que el administrador de la página web elrincondejesus.com, Jesús Guerra Calderón, no recibe cantidad de dinero alguna directa o indirectamente relacionada con el servicio que ofrece. Por todo ello, el magistrado, quien ya había desestimado un cierre cautelar de la página hace meses, concluye que la web de enlaces a redes P2P "no vulnera en la actualidad los derechos de explotación que les confiere a los autores de la Ley de Propiedad Intelectual". Del mismo modo, aduce que las redes P2P, "como meras redes de transmisión de datos entre particulares usuarios de internet", tampoco vulneran derecho alguno protegido de dicha ley.

Tras conocer la sentencia, la Asociación de Internautas calificó de "histórica" la misma, al reconocer la legalidad de las páginas de enlaces y reafirmar la legalidad de las propias redes de intercambio P2P. Así, consideraron que esta sentencia "ha establecido un punto de partida para el futuro de internet en España". La SGAE había demandado a Guerra Calderón y solicitado el cierre de su web, así como una indemnización por la "comunicación pública y la reproducción de obras musicales" gestionadas por la SGAE.

Novedad en el lector RSS de Google con el que presentar los feeds como diapositivas.


Google Reader Play, es el último experimento de Google con el que vamos a poder visualizar contenidos como una presentación de diapositivas. Este nuevo lanzamiento es algo así como una adaptación a una interfaz visual del famoso lector de feeds de Google.

Cuando entramos en la aplicación se nos muestra las noticias de los principales medios digitales, si nos registramos con nuestra cuenta de Google podremos además visualizar los feeds a los que estemos subscrito con Google reader.

La noticia que estemos visualizando en Google Reader Play ocupa la mayor parte de la pantalla, mientras que en la parte inferior queda un scroll donde poder ir viendo una miniatura del resto de feeds.

A medida que vayamos navegando por el contenido podremos informar, destacar y compartir lo que estamos viendo. Google Reader Play irá adaptándose, de esta manera, a nuestras preferencias.

Puedes probar Google Reader Play desde www.google.com

Más información de Google Reader Play desde googlereader.blogspot.com.

martes, 9 de marzo de 2010

Google compra Picnik, un editor de fotos online


El programa web trabaja directamente con librerías de imágenes online como Flickr, Picasa, Photobucket o las fotos de Facebook.
Por Rosalía Arroyo [02-03-2010]

Picnik, responsable de un editor de fotos online con el mismo nombre, ha anunciado en su blog que la compañía ha sido adquirida por Google.



El editor trabaja directamente con librerías de imágenes online como Flickr, Picasa, Photobucket o las propias fotografías almacenadas en Facebook, y permite a los usuarios trabajar con las imágenes y después cargarlas en cualquier a de estos servicios cuando han terminado.

Las capacidades de edición que ofrece Picnik son un complemento natural para Picasa, el programa de fotos de Google, fruto de la compra de la compañía del mismo nombre en julio de 2004 y que se ofrecía como una alternativa para Windows del iPhone de Apple.



Picnik trabaja en Flash, aunque la mayoría de las aplicaciones online de Google utilicen JavaScript. Ni Picnik ni Google han ofrecido información sobre los detalles financieros del acuerdo.



Flickr, propiedad de Yahoo!, utiliza Picnik por defecto, por lo que será interesante ver qué hacen las compañías.

Las búsquedas de Google llegan a la televisión



La compañía quiere ampliar su experiencia a la pequeña pantalla, permitiendo hacer consultas sobre contenidos y programas de la Tv por satélite o vídeos de la Red.

Por Alberto Payo [09-03-2010]

Google ha comenzado las pruebas de una nueva tecnología que llevará su sistema de búsquedas a la televisión, con el objetivo de integrar la TV convencional con el contenido de Internet.
El servicio de la firma de Mountain View permitiría a los usuarios buscar contenidos de vídeos en plataformas audiovisuales de Internet como YouTube, así como personalizar la programación. Éste funcionará con aquellos set-top boxes de televisión que contengan software de Google.
Según informan fuentes internas, está siendo probado por un número reducido de empleados y sus familias, los cuales realizan las búsquedas mediante un teclado en lugar de con un mando a distancia.
Con esta estrategia la enseña de la gran G persigue varios objetivos. El primero tiene que ver con conectar este sistema a su incipiente negocio de intermediación de anuncios de televisión, pudiendo así ofrecer la publicidad en los hogares a targets específicos, basándose en la experiencia de búsquedas de estos. En esta línea, YouTube ha alcanzado también acuerdos con fabricantes de televisores y consolas, según se hace eco The Wall Street Journal.
Por otro lado, Google podría querer trasladar su sistema operativo Android a la “pequeña pantalla”. Erich Schmidt, en una entrevista realizada en enero reconocía que “tiene sentido que la gente utilice Android con un SO para set-top boxes y los televisores. Todas esas ideas han sido propuestas por nuestros partners, aunque aspiramos a contar con nuestro propio hardware”.

lunes, 8 de marzo de 2010

Las webs españolas necesitan un curso de SEO.

Autora: Estefania Perez Ordoñez
Un estudio de la Universidad Carlos III, ha dado una serie de datos preocupantes: más del 80% de las páginas webs de la Administración Pública, no se dan cuenta de la importancia de algunos de los elementos de programación más comunes, para lograr localizar e “indexar”, de forma correcta, los contenidos que poseen.

Después de localizar este estudio, los expertos de la Universidad han aconsejado a los responsables de creación y desarrollo de las webs de la Administración de ámbito público que ponen que los internautas, que las personas que buscan información en Internet, que encuentren de forma clara y sin problemas donde dirigirse para poder llevar a cabo las gestiones online. Se sospecha que le dedican muy poca atención al campo de la optimización en los buscadores de Internet. Todo esto se ha logrado a travñes de un estudio que han realizado, en conjunto, el grupo de Tecnologías Aplicadas a la Información y la Documentación (TECNODOC) de la prestigiosa Universidad Carlos III. Este estudio buscaba analizar los ficheros robots de las distintas páginas, los ficheros tipo robots.txt y sitemaps.xml.

Este tipo de ficheros son lo que se suelen emplear para lograr la optimización, en el apartado de la localización, en los motores de búsqueda, y se ha estudiado más de 4,000 webs, que forman parte de la Administración Pública española. En la mayoría de casos -un 80%- no hay ningún interés en que los principales buscadores – Google, Yahoo, Bing...-, localicen de forma correcta dichas páginas. Sólo un 17% de las webs introducen ficheros de tipo robos.txt, en sus sistemas.

Cosas que pueden perjudicar a nuestro SEO (II)

Seguimos con algunas cosas que pueden perjudicar el posicionamiento de
nuestra página web, de nuestro blog, de nuestro trabajo, en los distintos buscadores que encontramos en Internet (como Google, Yahoo...). Estos cambios pueden perjudicar el funcionamiento de nuestra bitácora, el funcionamiento idóneo de nuestra página y, que en numerosas ocasiones, provocan todo lo contrario a lo que buscábamos en un primer momento, de lo que queremos realmente -o sea, un mejor funcionamiento, un mejor rendimiento de nuestro trabajo-. Debemos tener siempre en cuenta que cada sitio, que cada página, tiene un determinado dentro del mundo de Internet, y si lo cambiamos, podemos perjudicar todo el trabajo realizado, hasta ese momento.

Cambio de Dominio
Por estrategia de publicidad o simplemente “branding”, algunas empresas deciden cambiar su nombre comercial y hacen un sitio Web nuevo sin tomar en consideración su dominio anterior. Esto sin duda podría ser de “alto impacto” desde el punto de vista de pérdida de posiciones en buscadores electrónicos.

Modificaciones a URLs
Es posible que algunos sitios Web comiencen a utilizar lenguajes de programación diferentes al “original” y esto traiga consigo un cambio de extensión por ejemplo de HTML a PHP. Aún cuando el fichero tenga el mismo “nombre”, deberá utilizarse un re-direccionamiento 301 a cada uno.
En resumen, debemos evitar ciertos cambios en nuestro trabajo. Si un cliente nos lo pide, debemos decirle que no, negarnos con mucha educación. Si no, nuestro trabajo puede irse a la basura, por un simple cambio, que no parecía nada.

Cosas que pueden perjudicar a nuestro SEO (I)

Cuando trabajamos en este mundo, de Internet, páginas webs... nos encontramos que muchas veces hay personas que buscan cambios, que quieren cosas nuevas; cuando, en realidad, esos cambios pueden perjudicar nuestro trabajo. Esos cambios, muchas veces, no están pensados, o sea, la persona que los ideó no tuvo en cuenta lo básico, para no perder ese “valor”, cuando hablamos de posicionamiento en los buscadores SEO. “Y aunque algunos cambios sean mínimos (párrafos de contenido, añadir una sección nueva, imágenes), es posible que otros signifiquen una pérdida importante y repentina de posiciones alcanzadas…”Algunos de los cambios que podemos utilizar, y que pueden perjudicar nuestra página web y, además, de manera muy drástica son:
Implementación de un CMS o administradores de contenidos
“Generalmente algunas empresas bajo el lema “hágalo usted mismo” implementan administradores de contenido después que el sitio Web ha sido un HTML o similar, haciendo que toda la estructura y navegación –URLs- cambien, entre otros aspectos también relevantes.”

Por tanto, debemos tener mucho cuidado en este campo, pues no siempre los cambios son buenos. Es cierto que como en cualquier sector, es “renovarse o morir”, pero debemos tener mucho cuidado con lo que hacemos, pues podemos hundir todo nuestro trabajo en meses. Y, muchas veces, no podemos volver a atrás, y arreglar los errores cometidos. Por tanto, si un cliente nos dice de hacer cambios, con educación, muchas veces, lo mejor es decir no. Seguiremos tratando este tema, que es bastante interesante, en otros post de nuestra página.

¿Qué sucede si no le pagan lo que se había decidido en un contrato inicial?

Un experto en Seo se encuentra con una serie de problemas, en su día a día. ¿Qué sucede si no le pagan lo que se había decidido en un contrato inicial? Por ejemplo, un diseñador, simplemente, no enviará más trabajos finales; un programador, no seguirá perdiendo horas en un proyecto y, un proveedor de los llamados hospedajes Web, lo tendrá muy fácil, “quitará o bajará” el sitio del servidor. Pero, ¿qué hace un experto en SEO? Cuando esto sucede, que no es algo raro, en los foros nos encontramos con más de uno y dos casos y, tranquilos, si nos pasa no seremos los últimos que pasan por algo así. O sea, que un cliente deje de pagar, pare el proyecto, y no nos diga nada.

Si tenemos las normas en la mano, sólo encontramos esto: “Y si bien debería existir un contrato entre ambas partes, algunas veces tampoco debería de sorprendernos que les importe “poco” y hagan lo que les venga en gana”. El problema es que no podemos borrar el SEO y punto. Esperar que el sitio deje de trabajar, por si sólo. “El SEO es mucho más complejo; pues dentro del proceso de posicionamiento y bajo contratos de trabajo semestrales o anuales, es normal que el sitio vaya escalando posiciones según nuestras habilidades y otras variables, las cuales quizás no se verán “afectadas” aún cuando (des)- optimicemos el sitio por uno o varios meses”. Sin duda un gran problema en los tiempos que corren.

domingo, 7 de marzo de 2010

YouTube avanza hacia los subtítulos automáticos

Que todo el mundo pueda acceder a YouTube y disfrutar de sus contenidos. Éste es el propósito de Google para este año 2010, después de que en poco tiempo se hayan añadido notables mejoras en la visualización de vídeos. Si hace un mes vimos como YouTube cambiaba la forma de mostrar sus contenidos en alta definición, ahora somos testigos de la voluntad de Google por convertir su plataforma en una herramienta de traducción automática.

La intención es que todas las personas sordas puedan acceder a YouTube con los mismos derechos que las demás, gracias a una nueva función de transcripción automática. En los próximos días podríamos verla ya activada.


Los subtítulos automáticos ahorrarán mucho trabajo humano y darán inmediatez al servicio. Como era de esperar, la compañía ya ha alertado que las transcripciones no serán perfectas pero que se pulirán con el paso del tiempo y el análisis de los resultados obtenidos durante este período de prueba que comenzará en breve. Al principio funcionará con los vídeos que dispongan de locuciones en inglés, aunque se espera que en los próximos diez meses (ojo al dato) las transcripciones pasen por un proceso de traducción en varios idiomas. Lo que convertirá a YouTube en una herramienta plurilingüe y de alcance universal.


Cabe puntualizar que los textos no quedarán abandonados. Los dueños de los vídeos podrán revisar periódicamente los textos y retocarlos o corregirlos en caso de que lo estimen necesario. Pero esto no es todo. Google todavía guarda en la recámara un proyecto no menos ambicioso. Su voluntad por hacer de Internet una herramienta global le ha llevado a plantearse la traducción de todos los contenidos que existen en la red a buena parte de los idiomas más importantes del mundo. La cosa suena bien, pero sin duda traerá de cabeza al equipo Google. Habrá que seguir aquí, para comprobarlo.

Google compra DocVerse

Google acaba de anunciar otra de sus compras, esta vez compra DocVerse.DocVerse es una aplicación online que nos permite editar documentos de Office de Microsoft online sin la necesidad de instalar el programa en nuestro equipo. DocVerse fue creado por dos antiguos empleados de Microsoft en el 2007


Google explica en el blog oficial de la compaña:



"Somos conscientes de que todavía hay muchas personas acostumbradas a software de escritorio. Así que a medida que continuamos mejorando Google Docs y Google Sites, como herramientas de colaboración ricos, también estamos haciendo más fácil para las personas a la transición a la nube, y de interactuar con aplicaciones de escritorio como Microsoft Office. "
En otras palabras la intención de Google con esta compra según DocVerse, que los usuarios puedan trabajar con o sin conexión a Internet sin algún problema.

jueves, 4 de marzo de 2010

El navegador Chrome araña cuota a Firefox y Explorer



Mes a mes Microsoft recibe una noticia buena y otra mala. La buena es que el buscador Bing sigue arañando décimas de mercado, a costa de Yahoo! y de Google; la mala es que su navegador Explorer pierde terreno, no ya por culpa de Firefox, sino por el Chrome de Google. Así lo demuestran los datos de NetMarketShare.
Firefox, un producto de la Fundación Mozilla, sustentada principalmente por la inyección económica de Google, ha visto frenado su crecimiento, y no por la modernización del Explorer, sino por el lanzamiento y crecimiento del propio navegador de Google, el Chrome, que se presumía mecenas y aliado en esta guerra. Firefox lleva tres meses perdiendo audiencia.
Chrome ha pasado del 1,8% en abril de 2009 a 5,6% en febrero de 2010. Ya va por encima de Opera (2,3%) y Safari (4,4%); sólo por delante quedan Firefox (24,2%), con medio punto menos que en noviembre, y Explorer, con 61,5%, seis puntos menos que hace un año y 16 menos que hace dos, según NetMarketShare; pero si se toman los datois de Statcounter, aún son más negativos para el líder: Explorer sólo dominaría con el 58%, Firefox tendría el 31%, pero atascado, y Chrome subiría al 7%.



La lucha por hacerse un hueco entre los navegadores es crucial para la estrategia expansiva de Google, que utilizará esta herramienta como vía de acceso a las tiendas de aplicaciones y otros servicios.



Fin al navegador predeterminado



A partir de este mes se verá el impacto en el mercado europeo de la obligación impuesta por las autoridades comunitarias a Windows 7 para que no lleve de serie su navegador Explorer. Al abrir este sistema de Microsoft en los ordenadores aparecerá una ventana con la lista de navegadores y cada cual elegirá su preferido.
Este logro de la competencia de Microsoft-Explorer no acabó ahí, ya que posteriormente se peleó por el orden de presentación de los navegadores. El orden alfabético, aceptado inicialmente, fue rechazado por el navegador Opera, que le condenaba siempre al último lugar. Finalmente, la presentación de la lista será aleatoria y cambiante.

¿Cómo encuentro la combinación adecuada de colores para mi Web?

Autor: Juan E. Sapene



Hoy Hablaremos de uno de los grandes problemas que tenemos los programadores, que aunque sabemos de diseño no somos diseñadores gráficos de carrera, ¿Cómo encuentro la combinación adecuada de colores para mi Web? Pues ahora tenemos la respuesta; Adobe no nos lo pudo poner mas sencillo con Adobe® Kuler™ para comenzar a utilizarlo deberas entrar en http://kuler.adobe.com/

Es una aplicación web sencilla donde podremos:

Explorar distintos temas de colores

Explora miles de colores creados por la comunidad Kuler, buscando por palabras claves, tetulos, creadores o por colores





Crear nuevos temas a partir de un color


Crea nuevos temas con las fáciles herramientas que te ofrece Kuler








Crea Nuevas combinaciones a partir de una imagen

Solo tendrás que subir una imagen y el sistema registra la combinación de colores de la imagen y te ofrece distintas posibilidades de trabajar con estos colores




Kuler es compatible con tu Sofware favorito de de Creative Suite 4

Adobe Illustrator® CS4, Photoshop® CS4, InDesign® CS4, Fireworks® CS4, and Flash® CS4



Para conseguir mas referencias sobre esta practica herramienta entra en http://www.adobe.com/products/kuler/

miércoles, 3 de marzo de 2010

¿Como mejorar el rendimiento de mi Web o Blog?



Seguimos con algunos trucos útiles, para lograr el mejor rendimiento de nuestro blog. Un consejo muy útil es, emplear un lenguaje lo más natural posible, y piensa primero en los posibles lectores y, por último, en los buscadores. No lo hagas al revés. A lo largo de la semana, haz un rastreo de tus estadísticas y, así, sabrás cuáles son las palabras laves más útiles, las que puedes explotar más.


De vez en cuando, haz como que buscas palabras claves en Google, y así, lograrás saber en que posición están. Así, podemos concentrarnos en posicionar las palabras claves que nos permitan llevar a nuestro blog, a la mejor posición posible. Debemos emplear archivos HTML de tipo ligero -los buscadores los rastrean con más facilidad, y eso nos ayudará más en nuestra labor, de lo que pensamos-.


Lo ideal, serían los archivos que no superan la carga de 70 K. No olvidar los conocidos como “Long Tail”, que es muy simple: hacer lo mismo, o sea, posicionar un blog; pero, gracias a las palabras secundarias o, incluso, frases completas. Es cierto que da menos visitas, pero estas son más útiles, a la hora de posicionar. Si se emplea en varios de nuestros artículos, lograremos un mayor número de consultas, a la misma. Igualmente, es recomendable usar los llamados guiones medios (sobre todo en url´s y dominios), para separar las palabras que usamos. Los guiones bajos, no significan una separación de palabras, para el buscador de Google. O sea que, ya sabes. Emplea estas fáciles normas y, lograrás que tu blog esté mejor posicionado.


martes, 2 de marzo de 2010

Alguno trucos SEO.


Cuando creamos un blog, lo que queremos es, sin duda, conseguir el mayor número de visitas posibles. Más entradas. Que sea leído por muchas personas. Algunas cosas que debemos tener en cuenta son, por ejemplo, debemos usar contenido único y original (ni se te ocurra poner contenido de otra página) y, que sea importante, interesante, útil... que llame la atención, por algo, a los ciber- lectores.

Debemos emplear un dominio que posea las palabras clave, las palabras más importantes, para lograr posicionarnos, lo mejor posible. Lo mejor es que usemos un dominio corto; así, el dominio será mejor. Tiene que ser nuestro, o sea, propio (algunos buenos dominios son .com, .net, .es, .info o .org). Hay que actualizar el blog, con la mayor frecuencia posible (si podemos todos los días, es lo mejor, pues así aumentaremos el trabajo de los robots de Google, nos posicionaremos más arriba). Debemos lograr enlaces de calidad. Como en muchas cosas, es mejor tener pocos y buenos; que tener muchos y que no sean útiles.

Hay que buscar enlaces, otras páginas que estén relacionadas, que traten de lo mismo que trata la nuestra. Así, conseguiremos un blog de mayor calidad. Y, cuanto más parecidas, mejor. Debemos apuntarnos en directorios que sean considerados de calidad y, eso se hace con aquellos que poseen un PR notable. Debemos emplear, en el campo del llamado “nombre del blog”, las llamadas palabras claves. Estos sencillos trucos, nos llegan para conseguir que nuestro blog reciba más visitas, y logremos más beneficios de tipo económico. Y, ante todo, paciencia.

Trucos para el posicionamiento SEO



Seguimos dando sencillos trucos, para conseguir que nuestro blog esté en la mejor posición, posible. No tenemos que hacer cosas complicadas, ni pasarnos todo el día delante del ordenador, sencillamente, saber o conocer una serie de pautas, para lograr nuestra misión.

Primero de los mismos, debemos utilizar URL´s fáciles de comprender, de leer para los buscadores. Si podemos evitar números o símbolos dentro de la dirección URL, mejor que mejor. ¿Por qué debemos evitarlos? Por que a los robots del buscador Google les cuesta más tiempo y trabajo leer las URL más complejas, si tienen muchos símbolos, y números, mezclados con letras, tardarán el doble en leerlos, en diferenciarlos.

Los buscadores, además, buscan palabras claves en la URL de nuestros artículos, por lo que deberíamos ponerlas allí. También, es bueno poner las palabras claves al principio de nuestros artículos e, igualmente, ponerlas al final del mismo articulo. Así, lograrás facilitar el trabajo del mismo. Cuantas más veces aparezcan las palabras claves, mejor que mejor, pues le facilitaremos el trabajo a los buscadores como Google o Yahoo. El tema de los enlaces internos, todos sabemos que son muy importantes; pero, cuidado, no pongas 800 enlaces internos. Si ponemos los justos y necesarios, será más útil, y es que el número idóneo es tener 100 enlaces, como máximo, por página.

Es bueno que, cada cierto tiempo, empleamos el sistemap, que es una de las herramientas de Google, que es especial para Webmasters. Debemos jugar con los títulos y con las etiquetas, y allí escribir las palabras claves de nuestro artículo.

lunes, 1 de marzo de 2010

Análisis de datos, sin utilizar el Google Analytics.


Autora:Estefania Perez Ordoñez

es_peor@hotmail.com

Algunos editores o dueños, de importantes blogs, no saben cuántas visitas reciben sus blogs, tanto a finales de mes, como diarias. Y, por otro lado, no saben que hay técnicas para conocer dicho dato. El hecho de analizar los datos es tan relevante como los métodos que usemos para lograr el mejor posicionamiento SEO; pues, es la única manera de saber si nuestro trabajo es rentable o no; si estamos perdiendo el tiempo o no. A corto, mediano plazo de tiempo, o en un período largo de tiempo. Muchas veces, si queremos saber si nuestro trabajo es rentable o no, es observando las estadísticas del sitio, si ha aumentado el tráfico, que debería notarse en el número de ventas o si ha aumentado el número de nuestros contactos en la red.

Un programa para medir esto es el StatCounter & Mint, que es un programa mucho más sencillo, o el más simple que hay, que podemos encontrar en el mercado y, conseguimos datos tan importantes, como el propio programa del GA. Algunos importantes proveedores de hosting facilitan sistemas o programas para dicho uso, como AWStats o Webalizer, pero son un poco más limitados que el anterior. Algunos de los programas que podemos encontrar, para averiguar estas estadísticas son: Unica Affinium Netinsight, Yahoo! Web Analytics, Webtrends, Core Metrics o Omniture. Por tanto, no tenemos ninguna excusa para decir que no sabemos cómo va el tráfico de nuestro blog, si ha aumentado el número de visitas, o no. Si es rentable, o estamos perdiendo el tiempo.

La posición no es igual que el Tráfico.


Autora:Estefania Perez Ordoñez

es_peor@hotmail.com

Los bloggers y los editores de blogs viven, en algunos casos, muy obsesionados con el tema que nos incumbe: el posicionamiento de nuestro blog, en los conocidos como buscadores SEO. Y, en algunos casos, se pierde la guía, o la diferencia entre lo que es lo verdaderamente importante. O sea, nos salimos del camino sobre lo que beneficia a nuestro proyecto, o a los clientes o lectores de nuestro blog.

Es cierto que mucha gente relaciona el SEO con lograr posiciones importantes, en los conocidos como buscadores de tipo electrónico -Google, Yahoo...-; tal es así, que estas personas pierden mucho tiempo en conseguir posiciones relevantes, que, cuando termina el día, no verán que ese trabajo ha valido para algo, no ha recogido sus frutos. No verá que aumenta el tráfico de dicho blog, como queremos. La causa es que, aunque logremos una buena posición, tal vez, el tráfico que genera nuestro blog, no sea el deseado, el que buscamos. La causa es que podemos ser muy buenos “optimizadores”, como se dice; pero, eso no implica que los visitantes de nuestro blog estén realmente interesados, así de simple, en lo que estamos tratando.

Lo importante es lograr el interés de los lectores, de los internautas, de las personas que suelen buscar, en estas bitácoras, información para trabajos, o para entretenerse. Además, en Internet hay cientos de blogs. Y, cada día, se conectan millones de personas, de todo el mundo. Y, muchos blogs son seguidos por millones de personas. Eso es lo importante, no si estamos más arriba, o más abajo en una lista.

Mejorar nuestra posición en Google.

Autora: Estefania Perez Ordoñez
es_peor@hotmail.com

Si tu quieres lograr que tu página web, esté en la mejor posición posible, debes tener en cuenta algo muy importante.

El buscador de Google no muestra, cuando buscamos un término, en algunas ocasiones, todas las páginas de una web, si en su búsqueda ofrecen esos títulos o descripciones, de manera duplicada, o sea, si aparecen demasiadas veces repetidos. Por ejemplo, si buscamos un término, con el cual saldría muchas palabras seguidas, muchas entradas, nos mostraría algo parecido a: “Para mostrar los resultados más pertinentes, omitiremos las entradas más similares, a las cuatro que hemos mencionado. Si lo prefiere, puede repetir la búsqueda e incluir los resultados omitidos”.

Eso sucede cuando el término que se emplea, provoca muchas páginas, como resultado de nuestra búsqueda, que poseen título o descripciones similares; o sea, que son iguales. Por esa razón, lo mejor es que hagamos más originales, más personales y únicos, cada uno de los títulos y descripciones que estamos usando. Esto es difícil si empleamos wordpress, pues el resultado será mucho más efectivo, sin duda. Hay que tener en cuenta que Google no “castiga” a las páginas que poseen un título similar o igual descripción. Por tanto, no estamos diciendo que no las indexe. Pero, si hacemos esa sencilla maniobra, que no cuesta tanto, lograremos mejores resultados o posiciones en el Serp, o también conocidos como resultados de búsqueda. Por tanto, ya sabemos, hay que intentar ser originales, ante todo, para lograr que tengamos más visitantes en nuestro blog o página web.