martes, 17 de marzo de 2009

Dotbranding, la polémica apertura de dominios web y su efecto para las marcas

Existen 21 nombres genéricos para los dominios web, incluyendo por ejemplo el .com, .net y .gov, pero según un artículo de Advertising Age, esto estaría por cambiar. Una extensión de los dominios implica que para fines de año podría haber cientos de dominios, Coca Cola y Pepsi podrían pedir .softdrink o .soda y Procter and Gamble/Unilever podrían hacer lo propio con .laundry o .soap, lo que significa que el potencial del branding encontraría un nuevo aliado, en la elección del dominio o la creatividad de su diseño.
Pero ¿cuál sería el criterio para la asignación de los dominios? ¿Qué pasaría si se tuviera que pagar por cada nueva designación? El costo inicial estimado por la Internet Corporation for Assigned Names and Number (ICANN) es de 185.000 dólares para registrarlo más entre 25.000 y 75.000 dólares en fee anual. Este escenario implicaría una lucha por el mismo dominio en términos “del mejor postor”. En ICANN dicen estar presionados para abrir nuevos dominios por una falta creciente de .com.
De progresar la iniciativa, exigiría a las marcas accionar rápido o perder dominios que puedan resultar de su interés, pero a una marca bien posicionada online, puede costarle caro un cambio, las beneficiadas serían aquellas que aún no tienen presencia online y quieran un dominio como estrategia diferencial. Grandes corporaciones con muchas submarcas deberían pagar mucho dinero si quisieran comprar varios nombres genéricos para no perder posicionamiento.

¿Qué escenario se abre para las marcas?
Hay dos escenarios. La compra de dominios de marca (ejemplo: .nike) que van a estar regidos por los derechos de propiedad intelectual y que no van a generar demasiado problema, cualquier empresa con ganas de pagar unos u$s200 mil por ser el dueño de su propio dotbrand lo podrá hacer. El segundo escenario es el de venta de genéricos, como por ejemplo el .burger que podría ser eje de disputa entre Burger King y McDonald’s, ahí vamos a ver que algunas empresas con mucha plata se van a tirar de cabeza a atraparlos, pero tendrán que competir contra domainers gigantescos que viven de los dominios como especulación y a veces son más rápidos para comprar los genéricos sobre los que una marca no puede reclamar nada; el modelo de negocio sería en este caso la venta de dominios específicos y no la venta del top-level (como se llama a los .com o .org o .ar) por ejemplo, si sos el dueño de dotPC como no venderle un site a HP, otro a Lenovo, otro a Windows…

¿Puede aportar cómo estrategia de marketing?
Creo que simplemente aporta awarness: siempre hay dominios creativos como pueden ser direct2dell.com que pueden ser bien explotados desde los departamentos de marketing. No los veo como una estrategia en sí mismo sino como una parte más de un plan general, el problema es que muchas empresas no arman campañas que intenten englobar acciones generales donde ganarían mucho, por ejemplo con nombres de dominios graciosos y poco conservadores.

fuente: infobrand

lunes, 16 de marzo de 2009

Descubren una gran falla de seguridad en Internet

Es un problema en el diseño del protocolo que interconecta los Sistemas Autónomos de la Red; un atacante podría secuestrar cualquier dirección IP

Internet sigue teniendo agujeros abiertos. El último, descubierto por dos expertos en seguridad informática y publicado en la revista Wired , permite "secuestrar" cantidades nunca antes imaginadas de información. El punto débil tiene que ver con el llamado protocolo BGP ( Border Gateway Protocol ). El resultado: interceptar datos no encriptados que estén siendo transmitidos a cualquier parte del mundo, e incluso modificarlos antes de que lleguen a su destino.

Los routers BGP son comunes en los proveedores de Internet (como Telefónica, Ono, Tele2). Éstos utilizan el citado protocolo para compartir la información de ruta, esto es, para localizar computadoras en la Red (que se identifican individualmente mediante direcciones IP). La puerta entreabierta en este sistema, según probaron Anton Kapela y Alex Pilosov en la conferencia de hackers DefCon, es un mecanismo pensado para que las agencias de inteligencia pudieran intervenir determinadas comunicaciones.

"No hay vulnerabilidad ni errores en el protocolo, no se trata de un problema de software", explicó Kapela a Wired . El fallo está en el propio funcionamiento del BGP, que se basa en la confianza. Por poner un ejemplo, cuando alguien envía un correo de un país a otro, las diferentes compañías de Internet se comunican entre ellas con un router que les indica cuál es la ruta más eficiente para enviar la información a su destino. Y el BGP confía ciegamente en el veredicto. La tarea de los piratas informáticos es, pues, evidente: engañar a los routers para que les envíen a ellos la información.

Este ataque se conoce como secuestro de IPs y, además de ser un negocio ilícito, no es la primera vez que da problemas. En febrero, la decisión del gobierno de Pakistán de bloquear el acceso a YouTube provocó que, durante varias horas, usuarios de todo el mundo se quedasen sin poder ver vídeos del famoso portal. En este caso, la compañía Pakistán Telecom recibió instrucciones de dirigir las peticiones de acceso a YouTube de sus ciudadanos a otras páginas, instrucción que se distribuyó, tal vez por error, a proveedores de otros países.

Pero encontrar al culpable en este caso era fácil, porque el tráfico del portal acababa, como en un callejón sin salida, en Pakistán. La importancia del método utilizado esta vez por Kapela y Pilosov es que los datos se interceptan de forma mucho más silenciosa y, una vez obtenidos, se reenvían a los receptores originales para acabar de ocultar las pruebas.

Los expertos aseguran que los proveedores de Internet pueden evitar este tipo de ataque al cien por cien , utilizando filtros potentes, pero que son bastante costosos. Stephen Kent, experto en seguridad de BBN Technologies, trabaja también en otras soluciones, relacionadas con la obtención de autorizaciones previas.

En julio, Dan Kaminsky desveló otro importante fallo en el sistema de DNS, encargado de asignar direcciones IP.


Fuente: La Nacion Tecnologia.

jueves, 12 de marzo de 2009

¿Necesito un portal WAP?

Por qué tener un portal WAP es conveniente, aún cuando los nuevos smartphones no lo necesitan.

¿Necesito un portal WAP? Esta pregunta es -cada vez más- frecuente entre los encargados de marketing digital. Aunque la respuesta no es simple, algo es seguro: conviene no dejarla en manos de los proveedores de tecnología.

Si bien WAP (Wireless Application Protocol) es un estandar abierto diseñado para acceder a Internet desde celulares, muchos de los últimos smartphones (el iPhone entre ellos) incluyen browsers que permiten navegar las páginas de html de internet tradicional. Con esto en mente podríamos pensar que es prescindible.

Pero el parque de usuarios con smartphones sofisticados es mínimo, y así invalidamos una de las ventajas fuertes del mundo móvil, que es su penetración y una capacidad potencial de llegada aún mayor a la del entrono PC.

Además, a diferencia de una página en internet, donde todo está estandarizado, un portal WAP incluye una base de datos con las capacidades multimedia de -la mayor parte- de los celulares que existen en un mercado determinado. Así, la plataforma primero reconoce qué dispositivo está solicitando acceso (tamaño de pantalla, capacidad de procesamiento, etc.), y le “entrega” el contenido optimizado para que la experiencia sea lo más rica posible.

Otra pregunta válida para saber si necesitamos un portal WAP es ¿cuántas de las visitas a mi sitio se dan desde dispositivos móviles? Para eso necesitamos una herramienta de análisis que detecte con qué browsers nos están visitando. Y averiguar cuáles de esos navegadores pertenecen a celulares o smartphones. Es muy probable que el tráfico desde móviles no pare de incrementarse de ahora en más.

De todas formas, aunque consideremos que el el 100% del target que buscamos impactar tiene smartphones, la experiencia de navegación desde un móvil no es la misma que desde una PC, por lo tanto al menos deberíamos considerar montar un sitio optimizado para móviles, con una diagramación vertical, imágenes menos pesadas, etc.


Fuente: Movilion

viernes, 6 de marzo de 2009

Indexación - Guia básica

INDEXACIÓN
¿Qué es?
La indexación es el proceso por el que el buscador va rastreando el sitio y va incorporando a su base de datos el contenido de esas URLs.

Los ojos de un robot
Los buscadores poseen un robot que es una especie de programa que se dedica a rastrear las webs e incorporar lo que cree interesante a la base de datos de su buscador, tanto para indexar nuevas webs como para actualizar los contenidos de su base de datos.
El posicionamiento en los buscadores, principalmente en Google, se ha convertido para las pequeñas y medianas empresas en una lucha por atraer visitas, conseguir notoriedad y hacer llegar su producto a más gente.
Aparecer en los buscadores por términos genéricos aporta notoriedad a la organización pero en muchos casos puede tener un carácter negativo ya que supone más una molestia que una ayuda. Además implica forzar el motor de búsqueda y viciar sus resultados.
Por tanto, es necesario preguntarse qué términos correctamente indexados aportarán un beneficio de cualquier tipo a la organización.

Combinaciones de palabras
Existe una serie de herramientas bastante fiables, com por ejemplo Overture, que proporcionan las combinaciones de palabras más buscadas en Internet. Estas herramientas sugieren un buen número de combinaciones a partir de un término genérico que el usuario especifica.
Un ejemplo muy básico: atraerá más visitas un texto indexado por los términos "tutorial php" que por "manual php" ya que la primera cadena es más buscada por los usuarios.

Código HTML limpio
Un buscador únicamente es capaz de leer el código HTML de la página que va a indexar. Por tanto es importante que éste sea limpio y esté libre al máximo de etiquetas que realmente no sirven para nada. Esto, además de facilitar al buscador la lectura, repercute directamente en el tamaño de la página que también es una medida a tener en cuenta.
De la misma forma es importante conocer al máximo el código HTML y aprovechar sus capacidades semánticas ya que muchos buscadores las tienen en cuenta. Por ejemplo, una etiqueta h1 otorga al texto que encierra el significado de cabecera de la página. Es decir, proporciona más importancia a esa cabecera que a un simple párrafo.
Este aspecto del HTML es muy valorado por los buscadores, que otorgan más relevancia a los términos encerrados en etiquetas con importancia semántica: el resto de etiquetas de cabecera, el title de la página, el texto alternativo en las imágenes, etiquetas strong en lugar de b...
Ésta es otra de las ventajas que tiene la accesibilidad.

La importancia de ser enlazados
Uno de los criterios más importantes en Google es el número de enlaces, y a su vez la calidad de cada uno de ellos, que apuntan a una página. Es el llamado PageRank. No se trata del algoritmo principal del buscador, el PigeonRank que tienen en cuenta más criterios, pero sí es uno de los más importantes.
Esto es, cuantos más enlaces de calidad apunten a una página, mayor será su PageRank y por tanto tendrá mejores posiciones dentro de las búsquedas.
Este criterio es aprovechado por algunos para construir granjas de enlaces, páginas sin apenas contenido que se van enlazando unas a otras en forma de red. En principio estas granjas pueden dar un buen resultado aunque a la larga son penalizadas por Google, bajando el PageRank de todas las páginas que forman parte de ellas.
De igual modo es muy importante el texto que va asociado a cada enlace. Este texto tendrá más importancia dentro de las palabras clave por las que se podrá indexar una página. De esta característica nacen los Google Bombing, basados en enlazar masivamente una página asociada a un texto determinado. Son famosos los casos del Prestige y de la SGAE con la palabra "ladrones".

Actualizaciones de la página
Los buscadores suelen valorar positivalemte las páginas que son actualizadas con cierta frecuencia, las páginas que están vivas. Además, estas actualizaciones implican nuevos términos o bien repetición de los anteriores, que como ya hemos visto también es positivo.
En cualquier caso no es conveniente hacer cambios bruscos en las páginas, ni dar importancia a nuevas palabras clave sustituyendo a las anteriores ya que supondría prácticamente empezar de cero.

Nombres de dominio, subdominios y directorios
El nombre del dominio, de un subdominio o bien de un directorio también son factores importantes para la indexación por palabras clave. Por ejemplo, para la búsqueda de la palabra "PHP" tendrá mayores posibilidades el dominio php.net que cualquier otro como webtaller.com o programacion.com. De ahí viene la lucha por conseguir buenos nombres de dominio en sectores como inmobiliarias o viajes.
Lo mismo sucede con los subdominios y los directorios. Un tutorial sobre CSS tendrá mayores posibilidades de indexar bien si está situado en un subdominio llamado "css.7bytes.net" o en un directorio del tipo "7bytes.net/css/" que la URL "7bytes.net/css.php".

Qué no se debe hacer
Copiar contenido de otras páginas: Los buscadores localizan el contenido copiado y suelen penalizar a las páginas que están implicadas, tanto a la original como a la copia.
Enlaces siempre con las www: O sin ellas, pero siempre de la misma forma. Para algunos buscadores las páginas del tipo "http://dominio.com" y "http://www.dominio.com" son distintas, y por tanto las penalizan al considerarlas como copias.
Granjas de enlaces: Es frecuente que los buscadores localicen estas granjas y penalicen fuertemente a todas las páginas que forman parte de ellas.
Cambios radicales en la página: No se deben realizar cambios en las palabras clave y en las etiquetas relevantes semánticamente ya que suponen un giro y un cambio de criterio para los buscadores.

jueves, 5 de marzo de 2009

WEB 3.0 - La proxima internet

Este es el nuevo concepto, muy discutido por los expertos, ya empieza a rondar en el ciberespacio (aunque la 2.0 todavía no haya explotado al máximo sus posibilidades). Lo cierto es que ya existen una serie de tecnologías, características y demás que se están congregando que en algún momento va a cambiar el concepto de internet que tenemos en este momento. Dependiendo de quien la nombre en este momento, la podemos denominar: web 3.0, web 3D, Web semántica, entre muchas otras denominaciones.
Entonces, Web 3.0 (Término que utilizaré -por ahora) es la próxima evolución de la interacción en la web.
Las características principales de este nuevo paradigma son:
· La web como una gran base de datos distribuida: pensando la información en múltiples repositorios basados en XML, RDF y microformatos, que propicien la conversión de cualquier dato estructurado de esta manera en una página web.
· La consolidación de la web semántica: acercándonos al pensamiento de Tim Berners Lee, la web semántica tendría como base la estandarización de todos sus datos, en un formato mayoritariamente unificado, el cual pueda ser comprendido por agentes inteligentes que clasificarían la información de manera más eficiente para devolver resultados más precisos ante un pedido de información por parte de nosotros, los usuarios. Este apartado más que los demás es el que provoca mi escepticismo acerca de la cercanía del desembarco de la web semántica, ya que no sólo la cantidad de datos a clasificar es inconmensurable, sino que tampoco hay un acuerdo unívoco acera de los estándares de dicha catalogación.
· Contenido accesible a través de múltiples dispositivos: comprende el diseño de las interfases de manera tal que puedan ser accedidas desde multiplicidad de dispositivos: televisores, celulares, pda, etc. En la jerga solemos mencionar este ítem como diseño universal.
· Apalancamiento de las tecnologías de inteligencia artificial: a través de agentes inteligentes que puedan aprender de la interacción con los usuarios. Inclusive hay robots conversacionales como MegaHal (emulando la IA de 2001 Odisea del espacio) que aprenden, conversando con otros usuarios, nuevas palabras, almacenándolas y reutilizándolas en nuevas estructuras, por supuesto que no siempre sus frases sonarán coherentes, pero es cuestión de tener paciencia y enseñarle. El uso de chatterbots en ambientes de aprendizaje también está muy extendido.
· La web geoespacial: combina la información geográfica disponible de los usuario, con la información abstracta que predomina en la web, generando contextos que permiten realizar búsquedas u ofertar servicios en base a la localización, por ejemplo: en un banco de recursos poder saber quién mas de tu zona está participando, logrando a través de la declaración georreferencial de un usuario, su ubicación espacial y el contacto con pares que se encuentren dentro de un mismo territorio.
· Ambiente 3D que transforme la web que conocemos en espacios tridimensionales inmersivos, donde los usuarios puedan sumergirse e interactuar a través de representaciones, como por ejemplos los desarrollados en Second Life, esta visión abrirá nuevas formas de conectarse e interactuar usando entornos colaborativos en 3D. Inclusive ya intentos tímidos de interacción entre la web (2D) mayoritariamente software social y los mundos virtuales (3D) como por ejemplo SnapZilla, que es un sitio para compartir fotos exclusivamente de Second Life.

Igualmente, aún estamos transitando la todavía desconocida web 2.0 y nos falta aprender mucho más de sus componentes y sobre todo sacarle el jugo antes de pretender pasar a la próxima ronda.

fuente: http://www.interacciones.com.ar

miércoles, 4 de marzo de 2009

FUENTES SEGURAS PARA DISEÑO WEB (WEB SAFE FONTS)

Se sorprenderían al saber que hay diseñadores que no saben todavía que no se puede usar cualquier tipografía en la web y que, además, al especificar tipografías se deben listar más de una, porque nunca tenemos la certeza de que el usuario tenga la que nosotros elegimos.
Diseñar para la web implica saber y aceptar que todo cambia de equipo a equipo, de usuario a usuario y además, con el tiempo.
Para saber qué tipografías utilizar, hay que buscar listados de tipografías web (web-safe fonts). Este listado tiene relación con el software que se utiliza en cada época, porque son las tipografías que traen los programas más usados los que determinan qué familias se utilizan. Por eso, porque los programas, las versiones y los sistemas operativos van cambiando, es que esta lista va cambiando con el tiempo.

¿Por qué no se puede usar cualquier tipo de letra en diseño web?

Los navegadores (programas como Internet Explorer, Opera, Safari, Firefox, Google Chrome, etc) son los programas encargados de interpretar cada diseño web, para esto, utilizan las tipografías instaladas en el Sistema Operativo (Windows, Linux, MacOS, etc) donde se estén ejecutando. Dado que no todos los sistemas operativos tienen las mismas tipografías instaladas, es recomendable utilizar aquellos fonts que estén instalados en todos los sistemas operativos más populares.
Tabla de tipografías disponibles según Sistema Operativo

















Tipografías comunes
(*) MS Core fonts, menos comunes

Pixel Fonts

No solo en los desarrollos html, hay problemas con las tipografías. En Flash, por ejemplo, que nos permite usar cualquier Font sin necesidad de que este instalada en el equipo del usuario, muchas tipografías que usamos para grafica o cualquier otra aplicación no suelen tener buenas terminaciones dentro de las películ as flash. Una buena alternativa para solucionar esto es la utilización de las denominadas Pixel fonts, o fff (fonts for flash), que tienen una mejor terminación a la hora de funcionar dentro de la película dado que cada carácter está diseñado de tal manera que los extremos de las tipografías encajen exactamente en los extremos de los pixeles del monitor, permitiendo así una mejor legibilidad en tamaños pequeños de texto.

SILVERLIGHT una buena alternativa

Segun Microsoft:
"Silverlight es la nueva tecnología de Microsoft multinavegador y multiplataforma para presentar la siguiente generación de de experiencias en medios basados en .NET y aplicaciones altamente interactivas para la Web. Silverlight ofrece un modelo de programación flexible que soporta AJAX, VB, C#, Python y Ruby, y se integra con las aplicaciones de Web existentes. Silverlight soporta la descarga rápida y eficiente de video de alta calidad a todos los principales navegadores que corren en Mac OS o Windows.

Anteriormente conocido como “WPF/E”, Silverlight está diseñado para ofrecer un amplio contenido enriquecido con el resto del entorno de desarrollo Web, incluido ASP.NET.

Para alcanzar a la mayoría de la comunidad Web, Silverlight necesita ejecutarse correctamente en los diversos sistemas operativos y en los exploradores más usados. La primera versión es compatible con los exploradores Firefox y Safari que se ejecutan en Mac OS X, así como en Firefox e Internet Explorer de Windows. Se espera que a medida que el producto evolucione se van a admitir más sistemas operativos y exploradores.

Tiene la ventaja de que no depende de otros productos como podrían ser el Windows Media Player para reproducir video ni de Microsoft .NET Framework 3.0 para el análisis de XAML. Cierto es que es una tecnología del lado del cliente, pero encaja en una estrategia mayor orientada a servidor, incluida la capacidad de usarse en servidores que ejecutan PHP o Java.

Esencialmente, Silverlight es un complemento de navegador que representa XAML, exponiendo su modelo de objetos del documento (DOM) interno y el modelo de evento al explorador de manera traducible en secuencias de comando. De esta manera, un diseñador puede reunir un documento XAML que contenga gráficos, animaciones y escalas de tiempo y, por otra parte, un desarrollador puede adjuntarlos al código de una página para implementar la funcionalidad. Dado que XAML se basa en XML, el documento que define la interfaz de usuario que se descarga al cliente se basa en texto. Esto implica que no es un problema para los motores de búsqueda ni firewalls. Además, SQML puede ensamblarse y emitirse en tiempo de ejecución mediante una aplicación de servidor, lo que no sólo ofrece una experiencia gráfica enriquecida, sino también una experiencia personalizable y dinámica."


Para ponerlos en orbita, el silverlight es una alternativa directa el Flash, aunque tambien compite con Adobe Flex, Nexaweb, OpenLaszlo y algunas presentaciones de componentes AJAX. La primera versión de Silverlight fue lanzada en septiembre de 2007 y actualmente su versión 2.0 se distribuye de forma gratuita.

Uno de los puntos más fuertes de Silverlight es el soporte que tiene para video de Alta Definición (HD) que maneja streaming desde el cliente (o sea, sin meterle mano al servidor) de video de hasta 720 líneas progresivas por cuadro.

Para crear contenido gráfico para Silverlight tu herramienta debería ser Expression Blend 2, y para un desarrollador Visual Studio 2008.Hay excelentes ejemplos sobre Silverlight en el sitio oficial, además de algunos tutoriales y código para descargar y reciclar.

La verdad les recomiendo que lo investiguen, porque es una aplicación de mucho futuro, con grandes posibilidades y una muy buena alternativa al Flash (aunque me guste el flash - mucho - es muy bueno manejar distintas plataformas para poder brindar un mejor producto dependiendo del caso y la necesidad).

martes, 3 de marzo de 2009

OpenId - identificación descentralizada

El problema de la identificación no hay que descubrírselo a ningún usuario de internet: para cada servicio y web nos piden un usuario diferente. Decenas de veces rellenando los mismos formularios, amén del problema de las contraseñas. Si se utiliza la misma (y no se cambia) tenemos un problema de seguridad, en otro caso, una situación inmanejable. Con los sitios sociales, hay de nuevo problemas de identificación, más de una vez me he visto sorprendido por alguien firmando como un servidor y soltando barbaridades.

Frente a estas realidades varios desarrollos de identificaciones digitales, donde el mas conocido por todos es el PASSPORT de Microsoft, cuyo principal problema es que al ser un servidor de identidaes centralizado, todo pasaba por unas solas manos las de MICROSOFT.

OpenId es un sistema de identificación, donde la idea es la de registrarse en un sólo lugar (donde añadir datos personales si se desea) y poder utilizar el usuario/contraseña en todas las webs en que sea aceptado. Por ser descentralizado, no hay un servidor específico para cada servicio que permite OpenID, al que debas estar registrado, sino que tú eliges el proveedor donde deseas alojar tu identidad.

Pero lo mejor de OpenId es que es un sistema de identificación digital distribuido, cualquiera puede montar un servidor OpenId (en su terminología, proveedor de identidad) y permitir el registro de usuarios.

Este sistema de identificación digital promete convertirse con el tiempo en la credencial en línea, con la que se podrá navegar e ingresar en cualquier sitio que haya incorporado el servicio, con tu nombre OpenID, sin necesidad de registrarse. La solución para terminar con las cansadoras pantallas de registro, que te obligan a repetir infinidad de veces tus datos personales, una tecnología centrada en el usuario, que te permite tener control sobre cómo tu identidad se maneja y se utiliza en línea.

En OpenId el "nombre de usuario" es una url. Para obtenerla hay que registrarse en un proveedor de identidad (por ejemplo Myopenid) donde se nos pedirá un nombre y una contraseña. Con el nombre se construye la url (en este caso http://minombre.myopenid.com), que será la que facilitaremos cuando queramos autenticarnos en un sitio. Cuando queramos hacer dicha identificación seremos redirigidos al servidor en el que nos hemos dado de alta, que pedirá la contraseña, con lo que se habrá verificado que, efectivamente, eramos nosotros (para el registro o para comentar o para lo que sea). También es posible que el sitio en el que nos registremos pida información adicional (apodo, fecha nacimiento, correo), esto OpenId lo maneja admitiendo distintos perfiles bajo una única URL, permitiendo en cada momento controlar que información damos a qué sitio.

aqui les dejo algunos sitios proveedores de OpenId:

WEB 1.0 y WEB 2.0

Para poder entrar de lleno al tema de este nuevo concepto que llamamos "web 2.0" es fundamental comprender a su predecesora la Web 1.0. Esta última es la que todos conocemos donde todos los contenidos y servicios de un site están aportados, por el creador del sitio o webmaster, que solo permitían al usuario el recorrido o "navegación" entre las paginas de contenidos y el acceso a informacion, pero sin que este tenga mayor interacción con el sitio.

En el modelo de WEB 2.0 el contenido del site es generado directa o indirectamente por el usuario y puede ser compartido a través de la Internet (por ejemplo es el caso de los portales sociales - facebook, myspace - o de la wikipedia donde son los usuarios los que la "cargan con información). Este nuevo concepto genera un nuevo desafío en nosotros los diseñadores y desarrolladores, la creación de interfaces amigables y utilizables por el usuario 2.0. Pero, ¿que es un usuario 2.0? el internauta actual ya no se "conforma" con un sitio tradicional donde solo hace las veces de consumidor de información, sino que espera que la web le brinde otros servicios, utilidades, gadgets, perosonalizaciones o como le queramos llamar, para sentirse "a gusto".
Además de la necesidad de interactuar con la web, hacerse participe de la misma, el famoso y bien ponderado "quiero estar ahí".

Lo que nos da la pauta de hacia donde pensar a la hora de desarrollar o diseñar: pensar en el usuario, hacerse usuario y desde su lugar superarse y buscar la mejor interfase para cada desarrollo. También es importante el trabajo multidisciplinario, donde el programador y el diseñador trabajen a la par, para lograr un mejor producto, donde la comunicación y la funcionalidad vayan de la mano, donde la interacción y los servicios del sitio, sean presentados de una manera competitiva en el caso comercial, o amigable en el caso social.

Hay dos aspectos que son fundamentales en el diseño de las interfaces, que deberían tenerse en cuenta especialmente:

  • diseñar sistemas intuitivos de interacción
  • informar a los usuarios la respuesta que tienen sus acciones en la pantalla

Hacer interfaces intuitivos y sistemas claros de interacción.

Hasta ahora, al llegar a una página la mayoría de los usuarios saben cómo interactuar: si ven un enlace saben que es para ir a otra página, conocen que deben pulsar un botón para realizar una acción o, en un formulario, saben cómo seleccionar elementos mediante botones de opción, casillas de verificación, etc. En las nuevas aplicaciones, la interacción es mucho mayor, pero los usuarios no tienen un modelo mental claro de su funcionamiento. Se introducen novedades que les pueden generar problemas. No son intuitivas y no siguen las convenciones actuales, por lo que no está claro qué deben hacer los usuarios para interactuar, lo que les exige un proceso de aprendizaje, que puede ser difícil para algunos. Estamos en un momento en el que es necesario inventar o rediseñar nuevos controles o convenciones de interfaces de usuario que permitan que intuitiva y claramente aprobeche las herramientas que brindan los sitios.

Comunicar visualmente los cambios de la pantalla al usuario

El usuario de internet está acostumbrado que al realizar una acción, por ejemplo, pulsando un botón, aparezca durante unos instantes una pantalla oscura y luego, se descargue una nueva página en respuesta a su acción. Este modelo de interacción de petición-respuesta desaparece en algunas de las aplicaciones desarrolladas con RIA o Ajax.

Estas aplicaciones operan con otro modelo de interacción. Por ejemplo, en Ajax el usuario no tiene que esperar la respuesta del servidor a su acción, no interactúa, se detiene y espera. Ajax funciona como un intermediario entre el usuario y el servidor que trabaja en un segundo plano en el intercambio de datos, actualizando sólo partes o elementos de la página. Esto hace más rápida la interacción y evita esperas, pero puede crear problemas a los usuarios al poderles pasar desapercibidos los cambios, dudando si su acción ha llegado al sitio.

Uno los principios de usabilidad es tener siempre informados a los usuarios sobre el estado del sistema, dando pistas visuales sobre qué esta ocurriendo, por ejemplo,ofreciendo feedback al usuario de su acción sin dejar dudas sobre si funciona o no.

lunes, 2 de marzo de 2009

Sistema de gestión de contenidos

Ultimamente estuve investigando sobre los famosos CMS (Sistema de gestión de contenidos) o "enlatados" como les decimos, y conversando con gente amiga del medio, note que no es muy conocido el termino. Para eso, y para poner el primer post, voy a citar a la wikipedia para tratar de explicar masomenos de que se trata esto:

Un sistema de administración de contenido a menudo funciona en el servidor del sitio web. Muchos sistemas proporcionan diferentes niveles de acceso dependiendo del usuario, variando si es el administrador, editor, o creador de contenido. El acceso al CMS se realiza generalmente a través del navegador web, y a veces se requiere el uso de FTP para subir contenido, normalmente fotografías o audio.

Los creadores de contenido publican sus documentos en el sistema. Los editores comentan, aceptan o rechazan los documentos. El editor en jefe es responsable por publicar el trabajo en el sitio. El CMS controla y ayuda a manejar cada paso de este proceso, incluyendo las labores técnicas de publicar los documentos a uno o más sitios. En muchos sitios con CMS una sola persona hace el papel de creador y editor, como por ejemplo los blogs.


a continuacion les dejo un listadito de los sistemas CMS (de codigo libre) que pueden encontrar en la internet:

CMS para Sitios Web:

  • ActionApps (PHP)
  • Apache Lenya (Java/XML)
  • ASP Nuke (ASP) Un CMS basado en ASP de código libre.
  • Blakord Portal (ASP) CMS en ASP con código libre y totalmente en español. Próximamente habrá nueva versión libre, Draco Portal.
  • CMS10 (PHP, SWF y Ajax) Gestor de contenidos de nueva generación.
  • CMS HYDRAportal
  • CMS Contenido (PHP)
  • CMSimple [1] Un gestor simple para el mantenimiento rápido de pequeñas webs. Es simple, pequeño y rápido.
  • cmsMadeSimple (PHP) CMS fácil de usar y con muchos "add-ons" para añadir.
  • door108 (PHP) CMS totalmente en español basado en e107. Incluye novedades como sistema de administración MultiTarea y MultiArea para la creación de cientos de sitios sin ocupar casi espacio físico.
  • DotNetNuke (.NET) CMS desarrollado en .NET, gratis y con fuentes. nota: Más que un CMS en sí es un Framework de .NET pensado para desarrollar CMS entre otras cosas.
  • Dragonfly CMS (PHP) Portal que auna en su core: foros, galerías de fotos, descargas y noticias, entre sus modulos más representativos.
  • Drupal (PHP) Poderoso CMS muy conocido por la calidad de su código y por la seguridad que brinda, es estable y de actualización continua, configuración sencilla, instalación ágil, importante cantidad de módulos y temas visuales, excepcional documentación y comunidad activa y muy amigable, gran concepto de nodo.
  • Dynamicweb CMS (.NET) CMS desarrollado en .NET, solución con más de 60 módulos y una aplicación completa de eCommerce.
  • E107 (PHP) CMS muy completo y fácil de administrar y usar, ideal para usuarios con conocimientos generales acerca de estos sistemas. Sencillo sistema de instalación, amplia selección de temas visuales y módulos, muy flexible, backend muy bien ordenado, drop down menu agradable y organizado.
  • eZ Publish (PHP) CMS framework muy potente que sirve para páginas webs, intranets, comercio electrónico, extranets y portales.
  • Gekko (PHP) CMS en español muy seguro, fácil de configurar y altamente escalable.
  • Jaws (PHP) Framework y CMS amigable para el usuario y desarrollador.
  • Joomla (PHP / MySQL) Versión surgida de Mambo independiente de la empresa que está detrás de Mambo. Instalación muy sencilla y con muchas extensiones y módulos, la documentación es exhaustiva y concisa, interfaz de la administración muy intuitiva y poderosa, backend muy utilizable y editor WYSIWYG, opciones de personalización, una gran comunidad de usuarios.
  • Jupiter Content Manager
  • Mambo (PHP) CMS muy fácil de usar, pero con posibilidades un poco limitadas.
  • MemHT Portal (PHP)
  • MODx PHP MODx es un derivado (Fork) de Etomite, resulta ser un CMS más versátil que otros demasiado estructurados.
  • NukeET (PHP) CMS totalmente en español basado en el PHP-Nuke.
  • Openflavor (PHP) Gestor de contenidos web en castellano.
  • OpenCms (Java)
  • PHP REGION Ñ (PHP) Un cms al estilo php-nuke pero desarrollado totalmente en español.
  • Plone (Zope/Python) Muy flexible y poderoso, excelente interfaz de usuario, instalación muy limpia, buena cantidad de addons, impresionante grado de personalización, integración con LDAP u otros sistemas de login.
  • PHP-Nuke (PHP)
  • phpwcms (PHP) CMS orientado a la construcción de sitios web para profesionales y empresas.
  • POC-CMS (PHP) CMS totalmente desarrollado en español basado en el PHP REGION Ñ
  • Postnuke (PHP) Poderoso CMS/Web Framework modular con motor de temas visuales para una interfaz de usuario muy flexible y mantenible, con gran cantidad de módulos para toda necesidad, con un Network Operations Center para soportar una gran comunidad de desarrollo muy activa, y con un código fuente muy limpio y de alta calidad.
  • SPIP (PHP) Gestor de Contenido de licencia libre
  • Textpattern (PHP)
  • Tiki CMS
  • TYPO3 (PHP) herramienta CMS con estructura multinivel, motor de búsquedas, gestión de autoría y publicación de contenidos, mecanismo de uso de plantillas para la maquetación de páginas, multilenguaje,… Es también una herramienta portal: administra la personalización de las páginas según la identidad de los usuarios. Es enteramente extensible por módulos. Dispone de una comunidad muy activa.
  • TYPOLight (PHP) potente CMS especializado en la accesibilidad. Utiliza XHTML y CSSW3C/WAI. Desarrollado por Leo Feyer en 2004 bajo licencia GPL. para generar páginas que cumplen
  • WebGUI (Perl) Ocupa más de 40 MB, flexible, adaptable, multilingüe.
  • Xaraya (PHP). Es un CMS bastante potente y general, aunque con una elevada curva de aprendizaje.
  • XOOPS (PHP) CMS modular.Instalación sencilla, gran soporte comunitario, gran cantidad de módulos y temas visuales, mucha funcionalidad, sistema de permisos muy bueno.
  • Webmaster CMS (PHP)

CMS para Foros:

  • bbPress (PHP/MySQL) Se integra con WordPress.
  • phpBB (PHP/MySQL)
  • punBB (PHP/MySQL)
  • MyBB (PHP/MySQL)
  • SMF (PHP/MySQL)
  • Vanilla (Foros) (PHP/MySQL) Sistema de Foros de Lussumo.com, usando AJAX en gran parte del código basan su trabajo en una acepción del concepto "vanilla": software funcional, simple, limpio y bonito (Short and sweet). Poco soporte en español pero una gran cantidad de desarrolladores y complementos. Personalizable en extremo.
  • AEF [Nuevos foros (PHP/MySQL)disponible en http://www.anelectron.com/ se integra muy bien con MKPortal http://www.mkportal.it

CMS para Blogs:

CMS para Fotologs:

CMS para galerias:

  • Gallery (PHP/MySQL)
  • plogger (PHP/MySQL)
  • coppermine (PHP/MySQL)
  • FileBrowser (PHP/MySQL) Sistema de administración de archivos (sobre todo imágenes) de los creadores de Vanilla Lussumo.com y por lo tanto con la misma filosofía de trabajo.

CMS para Wikis:

CMS para eCommerce:

CMS para groupware:


Inicio del Blog

Asi le doy incicio a este pequeño espacio en la web, para compartir info y datos sobre diseño web. Donde hablaremos de aplicaciones, usos y concejos sobre el basto mundo de internet y la influencia de nosotros, los diseñadores/progamadores/bloggers/todos (jejeje) sobre el. Espero sea de utilidad.