Ideas locas para Linux #1

A partir de ahora comenzaré una pequeña sección que se llamará “Ideas Locas para Linux” e irán numeradas. Esto a raíz de varias ideas que se me ocurren en el quehacer diario con el computador y donde de pronto digo: “debiera haber algo como esto…” (tal vez les ocurra a ustedes también). Son cosas pequeñas y quizás insignificantes, pero de pronto una de estas ideas es buena, factible y alguien se anima a llevarla a cabo (o quizás ya exista y ni me he enterado).

Así es que ahí va la primera:

Un botón de “Reset” en el Gestor de Paquetes.

Hay veces en que por “error” configuramos mal una aplicación, o hacemos modificaciones en un programa que resultan poco convenientes y luego es trabajoso deshacer, o quizás nuestro navegador tenga problemas con una nueva extensión o “errores” en la sincronización, y puede que por estas causas la aplicación falle, deje de funcionar o ni siquiera arranque, en estos casos el problema es de una configuración que esta en una carpeta dentro de nuestro /home con el nombre: ‘.aplicacionquedaproblema’, y que si borras, el problema desaparece, ya que se genera una nueva carpeta de reemplazo que está en 0.

La loca idea es: ¿y si añadimos en el menú contextual del Gestor de paquetes, un boton que diga “reset”? que automáticamente borre los archivos de configuración y establezca uno nuevo (no confundir con reinstalar que no toca la configuración del paquete en cuestión), seria cosa de segundos para eliminar algunos problemas menores que puedan surgir, también pudieran servir para dejar limpia una biblioteca de medios de alguna aplicación de Musica como Rhythmbox, Banshee o Amarok, incluso podemos restablecer la apariencia original del Escritorio de un solo clic (borrando .gnome2).

Bueno esa es una “loca idea”, que a mas de alguno (en especial de intrusos) le puede servir.

Anuncios

AGE of APLICATIONS

Muchas veces tendemos a clasificar las cosas (además de con adjetivos, animales, etc) en Edades o Épocas, y eso incluye al Software, por ejemplo mas de alguna vez escuche sobre la era pre/post Amarok, y como yo no viví dicha transición, pues, poco tengo que decir al respecto, aunque si me parece que se refiere un poco al acabado técnico de la aplicación, en especial en lo que a usuario final se refiere, en fin, un ejemplo práctico y fuera del mundo Open Source, seria Winamp y iTunes. Sí, la “época” Winamp mostraba a los reproductores de audio como aplicaciones minimalistas, que constaban básicamente de controles, ecualizador y lista de reproducción, todo tan pequeño como se pudiera, en tanto en la época iTunes los reproductores son a pantalla completa, con bibliotecas de medios y donde los protagonistas son coloridas carátulas de álbumes, tampoco es raro ver tiendas de música incrustada y otros agregados mucho mas refinados.

Pero el mundo Open Source no esta exento a este tratamiento de “eras” o edades, para mi una de las mas importantes quizás, es la Era de Firefox.

Antes de Firefox erase Internet Explorer, es curioso como para muchos es “Internet”, o sea así le dicen a esa “e” de color azul, bueno, los demás sabemos que una vez que Microsoft vio que no podía suplantar el lugar de Internet licenció con apuro partes de Mosaic y dio vida a Internet Explorer, pero bueno, Internet Explorer creció rápidamente en sus versiones 5 y 6, principalmente por venir incluido en el S.O. y también por que, francamente, no habían muchas opciones mas, sin embargo pronto se durmió en los laureles, así fue como de pronto irrumpió Firefox, ex proyecto Phoenix, ex Netscape, el ave renacía de sus cenizas, bueno el Panda Rojo, alias Zorro de Fuego para muchos, el caso es que con Pestañas y Extensiones, resultó ser una revolución, no solo era mas seguro, mas funcional y mas útil, sino que propició el uso de estándares web, en realidad las capacidades de Firefox estaban a años luz de Internet Explorer, que recién para su versión 7 sacó pestañas, pero aun ahora, en su versión 8, no puede superarlo en otros aspectos, en especial el tema de las Extensiones, sin esa notable y abismal diferencia, Firefox jamas habría logrado ser considerado y ser protagonista en el mundo de los Navegadores Web, luego vendría webkit y los navegadores basados en el, sin embargo Firefox fue la punta de lanza del Open Source y el caballito de batalla para los desarrolladores web en la lucha por sentar estándares abiertos en Internet.

Otra “era” notable es la de Ubuntu, vale que no es una aplicacion, sino mas bien un S.O., pero si bien antes de el había Linux (yo mismo recuerdo que mucho se hablaba de SUSE y Mandrake/Mandriva), el pingüino seguía siendo exlcusivo y manejado principalmente por la elite informática, pero mientras Windows XP envejecía y se preparaba el fiasco de Vista, surgió de pronto esta distribución Sudafricana, derivada de Debian y financiada por un magnate que había viajado al espacio, con el lema Linux para seres humanos y con el tendencioso bug #1, Linux se ponía al alcance del usuario de a pie y comenzaba su loca carrera mediática, nunca antes Linux había hecho tanto ruido como ahora, resonando en todos los amantes de la informática, saliendo en diarios, revistas y hasta en televisión e inspirando a cientos de blogers y usuarios a quemar lineas y lineas de contenido bajo su sombra en plena era de la web 2.0.

Pero hay algunas eras que no son tan afortunadas, y ese puede ser el caso de KDE 4, teniendo uno de los mejores entornos de Escritorio (KDE 3.5), un día se lanzaron en una loca aventura con un destino desconocido, sin embargo con conceptos muy claros, y así fue, KDE fue un dolor en un comienzo, 4.0 no funkaba, 4.1 era como una versión beta 4.2 ya era como un RC 4.3 a punto y esta versión, la 4.4 se podría decir que cumple en gran parte, de hecho la 4.5 se centrara en corrección de errores y probablemente veamos el KDE 4 definitivo, una “dolorosa” época para mas de alguno, pero mirando para atrás y viendo lo tenemos ahora bien pudiéramos decir que ha valido la pena, ya que se ha conseguido uno de los escritorios mas acabados, completos y potentes que existen.

Hay otros casos, de éxito, cuyos alcances son insospechados y avasalladores, es el caso de Wikipedia, sin duda ha marcado una era, una donde el conocimiento es de todos, es libre y gratuito, adiós a las costosas enciclopedias, al dignísimo Encarta y otros medios, en Wikipedia se encuentra todo lo que existe y probablemente mas, incluso si se trata de historias de ciencia ficción, películas y novelas o un artista nuevo. ¿Vas a hacer de tareas, trabajos escolares, presentaciones corporativas?, Wikipedia!, es increíble como se convierte en casi una verdad absoluta, se acaban negocios completos y el conocimiento se pone al alcance de todos, todo esto para bien o para mal, pero allí está.

Hay otros que incluso han tenido Edades de Oro, y uno de ellos fue el intercambio P2P, el principal impulsor en un comienzo fue Napster, que termino pagando los platos rotos, pero la receta mágica estaba escrita y era de conocimiento publico, pronto Kazaa, Ares, edonkey y el posterior emule harían de las suyas en el mercado, mas tarde llegarían métodos mas potentes como el famoso torrent, sin embargo y aunque esos métodos aun están presentes, el aumento de malware en las redes, el auge de las descargas directas, la caída de The Pirate Bay y posterior persecución de todo lo relacionado con “copia”, han comenzado el fin de este medio que se niega a morir, ahora trabaja en la oscuridad como un secreto a voces, pero es la encarnación de la cultura del compartir y a su vez el enemigo de los poderosos, el arma del pueblo que el imperio intenta eliminar, sí, como en las mejores historias.

Y hay otras edades que lo envuelven y lo atrapan todo, como la muy nombrada Web 2.0, para muchos representada por la participación del usuario en Internet, un Internet que lo envuelve todo y que es bidireccional, donde el usuario ya no es un mero espectador, sino un miembro activo, que crea, comenta y modifica su entorno, aun es difícil saber en que momento se pasará a ser Web 3.0, siquiera saber bien cual es la definición de estos conceptos, pero ya vemos aplicaciones web, nube informática, medios audiovisuales y pronto habrá streaming hasta de complejos juegos 3D, pero tiempo al tiempo, esto aun no acaba de comenzar.

¿Que es lo próximo?, ya se que falta aun mucho por hablar, el tema da como para un libro, pero en honor al tiempo quisiera especular. A mi personalmente me gustaría una era del Software Libre, ¿por que no?, si algo nos enseñó la era de la Web 2.0 es que ya es casi imposible avanzar si no hay libertad en el camino, estándares abiertos, S.O. abiertos, Servidores Web abiertos, Lenguajes de programación, bases de datos, Navegadores, CMS abiertos y gratuitos, y finalmente hasta se navegó en la búsqueda de un estándar de video abierto, el pueblo sin decirlo busca la libertad, se expresa en el P2P, en los Blogs, en Wikipedia, y aunque muchos no lo reconozcan han llevado a grandes empresas a cambiar, hacer reconocimientos públicos de sus fallas, escuchar a sus clientes, abrir desarrollos, mejorar software, y todo con el consecuente beneficio para sus usuarios, aunque muchos, insisto, no quieran reconocerlo.

La Web 3.0 se está sentando en bases abiertas (hasta se busca un Facebook abierto o preguntenle a Diaspora) y Linux bien pudiera ver el comienzo de su propia época de la mano de Android, MeeGo y las distintas distros Linux incluyendo al inconformista Ubuntu, mas ahora cuando se popularizan los dispositivos móviles y el cerrado antagonista de la libertad, encarnado actualmente por las acciones de Apple, hace que nosotros digamos, muchos digan y el publico clame: Libertad!

Mi Escritorio a Julio de 2010

COMENTARIO

Nunca pensé en incluir un post de mi Escritorio, lo encontraba algo “sin sentido”, sin embargo al igual que muchos (quizás) que lo publican, he visto en ello varias ventajas importantes. 1) Da ideas a los demás de como organizar su escritorio, 2) Muestra las posibilidades de Linux a la hora de modificar el escritorio. 3) Te vuelves a retroalimentar con mas ideas, dándote la oportunidad de mejorar aun mas. Así que, razones hay, por lo tanto ahí vamos.

Tema Gtk: Dark WoW, siempre me han llamado la atención los temas oscuros, solo que a veces son demasiado oscuros, lo cual cansa y además hace que algunas cosas no funcionen bien, sin embargo Dark WoW equilibra muy bien lo oscuro de un tema con partes claras bien distinguidas, los botones están bien acabados, suaves en las partes oscuras y luminosos (con un tono azulado) en las partes claras, similar a KDE. Un detalle es que reemplaza los iconos de las barras de herramientas de las aplicaciones por iconos propios, algo para mi bastante bueno, menos distracciones y mas uniformidad. Es un tema bonito, elegante, bien definido y con suaves degradados, simplemente genial.

Tema de Iconos: Clearlooks OSX 3.7.5, un tema visto hace tiempo (parece que ya ni siquiera está disponible) que combina los iconos tipo Mac con las carpetas tipo Windows, elegantes, muy coloridos, en fin, buenos, pero quizá es el punto mas subjetivo de todos.

Borde de Ventana: Emerald Dark WoW, sencillamente combina.

Pero en el aspecto funcional está, para mi, lo más destacable e importante. Primero que nada deje un panel de Gnome, el superior, donde tengo de izquierda a derecha: Gnomenu con el tema Lancelot e icono de Ubuntu, Global menu, Cambiador de áreas de trabajo, Monitor del sistema, área de notificación, Indicator Applet, Hora y Fecha, Sesión, junto con salir del sistema. En este caso, ahorro el espacio del menú completo de Gnome, con el potente Gnomenu, además ahorro espacio vertical con Global menu, es muy practico y funcional, requiere un poco de costumbre pero cumple con creces, mas si tienes una pantalla pequeña como la mía.

Lo segundo es el uso de Docky, en primera instancia lo uso en la parte de abajo, donde sirve de Lanzador de aplicaciones y Gestor de ventanas, tengo además algunos docklets como Mostrar escritorio, Gmail y ayudante para Banshee, además tengo otra instancia de Docky en la parte izquierda con Intelihide, muy práctico si sumamos a eso la interacción con Zeitgest, un click derecho es suficiente para usar los últimos archivos utilizados o los mas frecuentes, por ultimo potencio esto con el Docklet Archivos Recientes.

Otras cosillas que he añadido son:

Nautilus Elementary: Espectacular, por lejos uno de los mejores navegadores de archivos, permite una buena funcionalidad y personalización.

Gloobus-preview: Un eye candy de los buenos, quieres “ver” algo solo presiona espacio y a disfrutar, le da un giro completo a la interfaz en general.

Zeitgest + Activity Journal: Zeitgest es en realidad quien esta detrás de todo, como decía sobre Docky, pero el mismo Activity Journal aporta bastante, se puede seguir el hilo donde quedaste ayer o hace algunas horas de forma completa con Activity Journal, ahorrando tiempo y “desgaste de neuronas”.

GnomeDo: Un clásico, sabes lo que tienes que buscar pero no te acuerdas donde o te da flojera buscarlo, solo “Super + Espacio”, teclea y GnomeDo hará el resto.

Gthumb 2.11: Vale que es solo una aplicación, pero por lejos de otro nivel, ve, mira y escucha tus archivos personales, es mas que un visor de fotos, con información completa sobre las mismas y capacidad de hacer ajustes al vuelo y demás.

Lo mas destacable

Global menu: no este menú en sí, sino el efecto que logra al separar la infaltable barra de herramientas de la aplicación, la necesitas?, pues ya sabes que está allí, pero es increíble lo poco usada que es en muchos casos, la aplicación se ve mas compacta, ahorra espacio y se destaca lo importante, es un acierto que trabajen esto para las próximas versiones de Ubuntu, aunque ojo que no sirve en el +100% de los casos.

Zeitgest: Una de las joyitas del desarrollo de Gnome que no valoramos hasta que comienza a asistirte en tu quehacer diario, ya sea con Activity Journal o en Docky es como un ayudante que te va pasando lo que necesitas cuando lo necesitas, se vuelve imprescindible.

Nautilus Elementary: Ya le habia dedicado un post anteriormente, y es que ahora además ganó personalización, cuesta encontrar algo mas practico que esto para administrar archivos (quizás Dolphin pero también es como un poco “mucho”).

Y, WoW, es increíble, aunque hay temas para gustos y colores, no deja de llamar la atención a quienes lo ven (lo digo por un acérrimo winfanboy), solido, sobrio y elegante, la iluminación azulina de los botones queda de lujo, un tono oscuro bien combinado y unos sencillos iconos que hacen juego, es el tema Gtk que mas a durado después de Slickness hace ya mucho tiempo.

Lo menos destacable

Los iconos, busco nuevos (con iconos mono) y el puntero del mouse (no se quita el de KDE con nada).

Bueno, eso es un poco de mi actual Escritorio, lo mostraré la próxima vez que tenga mas novedades (y con menos preámbulos), espero que les sirvan algunas ideas.

Herramientas de Transformación de Imágenes

GUIA

Las Herramientas de Transformación son quizás las mas básicas en la edición de imágenes, son capaces de  generar cambios que afectan a la imagen en sí, a nivel global, generalmente se usan en visores de fotos  (F-Spot, Gthumb, Shotwell, etc.) y otros programas que aplican edición de imagen (GIMP, Pinta, etc), incluso en las de Ofimática (OpenOffice). Nombraremos las principales.

A la izquierda algunas de las herramientas que GIMP posee para transformación, a la derecha las del visor y organizador gThumb.

Rotar y Girar: Gira la imagen sobre su propio eje, permite pasar de una posición vertical a horizontal o viceversa.

Muchos programas presentan botones para esto que permiten una rotación de 90° a la vez, otros en tanto permiten utilizarlo  en el mismo lienzo, mediante arrastrar los bordes con el mouse, muchas veces aparece esta opción al hacer un segundo click en la imagen.

A la derecha la herramienta “girar” de GIMP, arriba la opcion básica de giro del visor de imágenes y abajo la herramienta de giro de OpenOffice.org Dibujos.

Reflejar o Voltear: tal como un espejo, intercambia la posición de la imagen, de derecha a izquierda o al revés.

En este caso se usan principalmente botones y menús de “Reflejar” o “Voltear”.

Un pequeño ejemplo de la herramienta “reflejo”.

Redimensionar o Escalar: Aumenta o Reduce el tamaño de una imagen, expandiendo o disminuyendo la cantidad de píxeles que posee.

Por lo general se realiza con tiradores ubicados en las esquinas y bordes de una imagen, en otros casos introduciendo los valores de forma especifica, algo importante a tener presente es el mantener las proporciones, el mismo alto por el mismo ancho relativo cosa de no deformar la imagen, esto ultimo muchas veces aparece como opción, otras basta con arrastrar desde una esquina en vez de un borde y en el caso de Gimp, haciendo un click en la cadena, si está unida, como en el ejemplo de abajo, significa que guardará la proporción de aspecto de la imagen.

La herramienta “Redimensionar” de GIMP, utiliza tanto el arrastre desde los bordes, como el ingreso especifico del tamaño.

Recortar: permite extraer un tozo de la imagen, no se aumentan ni disminuyen píxeles, solo se selecciona un área y se elimina el resto.

Aquí muchas veces se usa la herramienta de selección, con el cual se puede eliminar el resto o tomar el área seleccionada, otras aplicaciones proponen un área pre seleccionada que se puede ajustar para luego recortar como es el caso de Simple Scan. Luego solo queda “cortar”, muchas veces hay un botón o entrada de menú (en Gimp: Imagen>Recortar a la Selección) específico para ello. También es bueno “hacer zoom” para ser mas precisos en el corte, ya sea desde la barra de herramientas o con la combinación Ctrl+scroll hacia arriba del mouse.

A la derecha, la herramienta “recortar” de Pinta y a la izquierda la respectiva de gThumb.

En general estas herramientas son muy comunes y varias aplicaciones las utilizan, sin embargo las implementaciones para su uso son distintas, algunos operan desde barra de herramientas, mientras que otras lo hacen dentro del lienzo con el uso del mouse. De todas maneras ya sabes que esperar mínimamente de un programa con edición de Gráficos, solo debes buscar las opciones.

De entre las aplicaciones que poseen estas funcionalidades están: Gimp, Inkscape, gThumb, Gwenview, Digikam, F-Spot, OpenOffice, Pinta, entre otras.

Sobre Dibujos Libres y Edición Gráfica

Centrándome un poco mas en el objetivo inicial de esta “bitacora”, he añadido una sección llamada por ahora “GRÁFICOS”, en la cual pretendo ir centralizando y acumulando recursos de todo lo que tenga que ver con dibujos, fotos e imágenes digitales, por supuesto, con el uso de Software Libre y OpenSource, la idea es seguir posteando normalmente, pero todo lo que tenga que ver con esos temas irán quedando referidos en esa sección para su posterior revisión, y es que muchas veces es difícil encontrar “todo junto” sobre un tema en un blog (por supuesto, es un blog) y las búsquedas no ayudan mucho, en lo que a orden lógico se refiere.

Sé también que están las wikis y paginas especializadas, de donde precisamente sacaré información, pero esto es para gente aun mas floja que yo que desee todo mas a la mano y rápido, por lo mismo los artículos serán sencillos y fáciles de entender. La sección será bastante simple y clara, sin muchos elementos, para no confundir, ni tener que pensar o divagar mucho,  pretendo mas adelante ir sacando secciones similares para otros temas, espero que les ayude este pequeño experimento que intentaré hacer.

Seccion: GRAFICOS

Primera subseccion: Conceptos Básicos

Software Libre y OpenSource en Instituciones y Gobiernos

Reflexionando un poco en el comentario hecho hace ya varios días Neelie Kroes (y que no he posteado por falta de tiempo), he querido compartir un punto de vista que encuentro importante tanto social como económicamente, y que tiene que ver con el uso de tecnologías abiertas en los gobiernos y de paso, en empresas.

Si bien una de las primeras ventajas que salta a la vista cuando se habla de Software Libre en una empresa o gobierno es el factor COSTO, creo que ese no es el principal motivo o razón para cambiar, o al menos no debiera serlo. En realidad el Software Libre y el OpenSource nunca se han tratado de un asunto de ahorrar costo, aun cuando en la práctica finalmente resulte así. Lo que puede entregar el codigo abierto a instituciones y empresas es mucho mas que eso, y quiero acotar solo algunas de las cosas que en realidad puede otorgar:

Independencia Tecnológica: tal como lo menciona Neelie Kroes en su comentario, muchas empresas se encuentran encerradas en soluciones propietarias de las que es muy complicado salir, por ejemplo dependen de los formatos propietarios (doc, xls, etc), tan solo en Alemania pasar al estándar ODF ha demandado años, y es, quizás, el primer obstáculo en cual pensar por parte de una empresa que pretenda usar software alternativo, mas allá que dicho software también pueda trabajar con formatos propietarios. También dependen de sistemas y diversos antojos de empresas propietarias, donde prima el bolsillo por sobre la utilidad y funcionalidad, solo basta con ver el caso de Windows Vista, un sistema no acabado que generó muchísimos problemas, dejando a empresas e instituciones con dos opciones, arriesgarse a usarlo, gastando gran cantidad de dinero en hardware, implementacion y licencias y no obteniendo mayores ventajas; o simplemente continuar con sus antiguos sistemas, muchos optaron por esto último, pero el caso es que durante años muchos han tenido que aguantar usar sistemas practicamente obsoletos o sufrir cambios “para mal” por el solo capricho de algunas empresas, con decisiones totalmente unilaterales donde lo que prima no es la necesidad del cliente, sino el beneficio económico que se pueda obtener del proceso. Ademas hay que sumar que dependen de sus partners, de su catalogo de programas y en el fondo de terceros, terceros que como ya decíamos no velan por el cliente, y que en cualquier momento se equivocan, cambian de estrategia o cambian las reglas del juego, pudiendo descontinuar productos, liberar programas llenos de errores, aumentar los precios, etc. todo de forma unilateral, y sin responsabilizarse ellos por las malas consecuencias que puedan haber, tal como lo señalan sus acuerdos de licencia.

En el mundo del Software Libre en tanto, no hay dueños, si bien hay grupos o hasta empresas que lideran algunos desarrollos, la licencia permite usar, modificar y hacer implementaciones de los programas de forma libre, cada gobierno o empresa puede tomar a cargo el desarrollo de sus programas con el uso de recursos y mano de obra local, dichas implementaciones se harían de acuerdo a las necesidades reales que se tengan y no cambios que sean innecesarios, se puede desarrollar de acuerdo a una planificación establecida y no al ritmo de los antojos de un tercero, y en definitiva se buscaría el mejor rendimiento, productividad y utilidad que se pueda lograr y no “vender mas” simplemente.

Productividad: Para lograr todo lo anterior hay que trabajar, pero aquí nuevamente el Código Abierto aporta su cuota de ventajas, en primer lugar no hay que crearlo todo desde cero, muchos componentes ya existen, todo ese código libre es un verdadero diamante en bruto con el cual se han creado y se pueden seguir produciendo autenticas joyas. En realidad cuando nació el concepto del Open Source, se tenia un concepto de generar beneficios prácticos. Al compartir, distribuir y descentralizar el trabajo se produce una autentica sinergia que logra imponerse muchas veces a los mas sofisticados desarrollos individuales. Un ejemplo de ello es el Kernel Linux, desarrollado por mas de 2000 desarrolladores de todo el mundo es una de las mas complejas, poderosas y robustas piezas de software, utilizado principalmente en sistemas de alto rendimiento, en este desarrollo muchas empresas tales como Red Hat, IBM, Intel, Novell, Sun, Oracle, entre otras, han contribuido de distintas formas para lograr un objetivo en común de poseer uno de los Sistemas mas potentes que hay, y luego cada uno de ellos puede utilizar dicho sistema para sus propios usos particulares, es como si varios amigos aportaran los ingredientes para lograr una completa comida que luego pueden disfrutar, y si aplicamos dicho método a cualquier pieza de software sin duda que se pueden lograr resultados fantásticos, no seria extraño que hubiera colaboración entre países para desarrollar aun mejores sistemas y aplicaciones, eso siempre y cuando se utilizara y aplicara el modelo de desarrollo del Software Libre y Open Source.

Ademas de que la sinergia producida por el modelo de desarrollo Open Source genera mayores resultados ahorrando trabajo, también tenemos el hecho de que la actividad informática cambiaría completamente de función, pasaría de ser análisis y reparación a programación y desarrollo, conservando el soporte y la capacitación, es decir aun mas puestos de trabajo en el área informática y hasta volverían valores tan importantes como la creatividad y la innovación que tanto escasean hoy en día.

Empleo: Ya mencionábamos, se requiere trabajo y por tanto trabajadores, quienes pasarían de ser espectadores a ser protagonistas, de simplemente revisar y solucionar problemas, a crear, programar y desarrollar completas plataformas; de un empleado de un partner de una multinacional, a ser parte de La Empresa de Informática de un país o institución; en definitiva un país pasaría de ser consumidor a productor, o por ultimo, ya seria independiente y autosustentable informáticamente hablando. Y es que en diversos países (fuera de Estados Unidos) muchas veces es bastante pobre el desarrollo informático y otros en tanto se limitan a implementar, medianamente bien, software y sistemas importados. Esta bien que en un comienzo sea asi, pero luego…, es decir en un comienzo puede que arriendes una casa, pero luego seria lógico tener la tuya propia, en un comienzo puede que uses y pagues locomoción colectiva, pero luego seria bastante mejor tener un vehículo propio, en especial si ya tienes a mas gente a la que llevar…, y los gobiernos y empresas tienen mucha gente a la cual llevar, no solo eso, sino que han alcanzado un gran nivel de desarrollo técnico e informático, suficiente como para que creen sus propias plataformas utilizando los recursos existentes, entre ellos las miles de lineas de código escritas y que se utilizan actualmente en el Software Libre y Open Source, esto incluye Sistemas Operativos, Controladores, Bases de datos, Servidores Web, Lenguajes de programación, servidores de aplicaciones, telefonía IP, Servidores de correo, aplicaciones de oficina y más. Así es que, en caso de comenzar, no se haría desde cero, y por lo demás generaría importantes beneficios locales, tanto a nivel material como personal.

Es por ello que, en la humilde opinión de este servidor, el uso de código abierto en la actualidad no solo es bueno, sino muy necesario, y no tanto por el factor costo, sino por los demás beneficios a mediano-largo plazo que se pueden generar. Por otra parte es una lástima que muchas mentes brillantes de la informática se pierdan, conformándose con estar ahí, sirviendo de perro guardián del Software Propietario de grandes compañías, en vez de ser participes de un desarrollo que puede beneficiarlos a ellos y a su sociedad mas inmediata. Pero no todo es malo, actualmente ya hay muchos países (y cada vez mas) que apuestan por el software de código abierto en sus instituciones y empresas, se han dado cuenta de la importancia que tiene poner manos a la obra y no dejar al azar algo tan importante como los sistemas informáticos, no permitiendo que el miedo los venza, sino siendo proactivos y cambiando su suerte para el futuro.

Sobre HD, Full HD y Calidad de Imagen

ENTENDIENDO

Sobre HD, Full HD y “verdadera” calidad de Imagen

Muchas veces oímos publicidades de televisores que hacen gala de ser FullHD, entregar una máxima calidad de imagen y demás. Pero grande es la sorpresa cuando, tras la compra, muchos descubren que la calidad de imagen es incluso peor de lo que tenían en sus viejos televisores, entonces ¿que significa el maravilloso FullHD?, ¿en que fijarse a la hora de comprar un Televisor, Monitor o cualquier tipo de móvil y gadget a la hora de esperar calidad de imagen?, bueno, entendamos un poco mas del tema.

Pixeles

Descripción corta: un puntito de color en la pantalla. En realidad se define como la menor unidad homogenea de color de una imagen digital, la cantidad de pixeles nos indica cuantos de esos puntos hay en una imagen, muchas veces esto sale como 1074×768 es decir 1074 puntos de ancho por 768 puntos de alto, un total de 824832 puntitos de color, lo cual es bastante bueno, pero en cuanto a video, muchas veces se usa un solo valor, por ejemplo 360p que es la “calidad” los videos estándar de youtube, aunque también los puedes aumentar a 480p o 720p, en este caso ese valor representa la cantidad de puntitos que hay de arriba a abajo en una imagen, es decir la cantidad de lineas horizontales de una imagen, de esta forma se puede comparar mejor entre uno y otro. En el caso que mencionábamos de youtube veras que la imagen mejora conforme mas cantidad de “p” hayan, eso indica una mayor concentración y densidad de pixeles, con lo cual las imágenes son mas nítidas, los bordes de lo que veamos serán mas definidos y se tendrá una “buena imagen”. En cuanto a la “p”, en este contexto, significa “progresivo”, quiere decir que la imagen se dibuja una a una linea consecutivamente, como contra parte existe la “i” (por ejemplo: 1080i)  significa “entrelazado” donde la imagen se dibuja en dos partes, primero todas las lineas horizontales pares y luego las impares.

¿y el HD?

Básicamente es un “estándar” que se definió en 720p, la imagen en total tiene un tamaño por lo general de 1360×720 pixeles. De esta manera los nuevos televisores o son HD (720) o FullHD (1080), así todos se preparan para trabajar imágenes en esos tamaños y no en 1280×800, 1074×768, 1440×900, etc. intentando abarcar todas las resoluciones al mismo tiempo y creando un caos en poco tiempo, aunque esto ultimo igual termina ocurriendo. Como comparación los televisores comunes tenían una resolución de 576p. Bien, cuando tu tomas un video de 360p de youtube o una foto o imagen pequeña, digamos 640×480 y la amplias por tu pantalla (1074×768, 1280×800, 1366×720, etc.) veras que queda horrible, los 360p o 640×480 se han expandido por un espacio mucho mayor y todo se ha distorsionado. De esto podemos concluir que si tienes una pantalla con alta resolución, la imagen debe ser de una alta resolución también, no esperes una gran definición en un televisor Full HD (1080p) si la imagen que recibes es la convencional de 576p o menos.

Y a todo esto hay que sumar un detalle muy importante, lo que mencionábamos de “p” e “i”, a efectos prácticos, la “p” que se añade, quiere decir que la imagen se transmite a 60 cuadros por segundo y tiene 1080 lineas horizontales reales, en cambio la “i” son 60 cuadros entrelazados por segundo, “simulando” 1080p reales, ya que hace una combinación tan rápida que engaña a nuestros ojos, a lo mas la imagen se verá algo mas parpadeante en comparación. ¿Es tan malo el “i”?, pues no tanto, en realidad la calidad de imagen dependerá más de otros factores que de si es “p” o “i” (mas si se habla de 1080), como veremos mas adelante.

¿Y las Pulgadas?

También son importantes, todos esos pixeles rellenan un espacio físico, la cantidad de pulgadas dividida en cantidad pixeles da una cierta densidad, 720p en un monitor 13” tiene una densidad mucho mayor que 720p en un televisor de 42”, de hecho en 37” ya puedes notar que el HD se va quedando corto en calidad de imagen, y es que los 720p están demasiado expandidos en ese espacio (y en un televisor de 42 pulgadas ni hablar), por ello, un Full HD en televisores de esos tamaños viene bastante bien, son 2.073.600 pixeles que rellenan esas pantallas, lo cual es bueno, pero tiene un gran PERO, aun es difícil encontrar imágenes en esa calidad (de hecho un Blueray y otros pocos formatos ofrecen imagenes FullHD), habrá que esperar para que ese nivel de calidad comience a masificarse y logre sacar partido a las pantallas FullHD, al menos no en todas partes del mundo se tiene acceso a la “mas alta definición” y eso trae como consecuencia que un video común, muchas veces de unos 480p, se vea feo en una pantalla HD y peor en una Full HD.

Otros Factores en la Calidad de Imagen

La tecnologia de la pantalla: Una de las primeras “pantallas planas” en salir al mercado fueron los Televisores Plasma, luego y actualmente los LCD, y lo siguiente probablemente será la tecnología OLED y/o AMOLED. Básicamente su composición es distinta, Plasma = Gas, LCD = Cristales Liquidos, OLED = Partículas orgánicas. Estas composiciones inciden directamente en la viveza de los colores, el contraste que puede lograr la imagen y hasta la vida útil del producto, esto ultimo terminó por sacar del mercado a los Plasmas, de vida mas corta en comparación con el LCD. En todo caso es un punto muy importante, muchas veces notarás grandes diferencias entre una pantalla y otra, aunque sean de la “misma resolución”, debido a la forma de haber empleado las tecnologías los diversos fabricante.

Contraste: Se puede decir que es la máxima diferencia que hay entre un color blanco y un color negro, más contraste son colores más diferenciados, una imagen más nítida, contornos más definidos y se nota una imagen mas “viva” en comparación con una de bajo contraste. Normalmente se definen en rangos de 30000:1, 60000:1, 100000:1, etc.

Dos pantallas con la misma resolución pueden verse totalmente distintas por el factor contraste, es algo a tener muy en cuenta.

La iluminacion: En general no hay mucho problema con este punto, pero quizás hayas oído hablar de la tecnología LED, no es un nuevo tipo de pantalla, sino que la iluminación (la luz) se produce con esta tecnología, mucho mas ecológica y con menor consumo de energía que las anteriores luces. De todas maneras siempre se agradece una buena iluminación.

Reflejo y Antirreflejo: Hay pantallas que parecen espejo, en tanto otras se ven opacas y sin vida cuando están apagadas, aunque los televisores son, en general, antirreflejo, también es un punto a tener en cuenta, las pantallas “reflectivas” poseen un grado de definición algo mas “vistoso”, ideal para videos, películas y juegos, pero en el día es muchas veces imposible poder apreciar algo, en tanto las pantallas anti-reflejo son mas precisas en lo que respecta al color y mas “definidas”, al punto de “pixelarse”, de todas maneras los televisores y la mayoría de las pantallas han intentado solventar las deficiencias de cada una de ellas, minimizando las desventajas en especial de las anti-reflejo.

Angulo de visión: Es otro aspecto, también va en función de la tecnología y el tipo de pantalla, es algo en que fijarse a la hora de comprar un monitor o cualquier tipo de pantalla, en especial de un televisor.

Velocidad de refresco: muchas veces descrita con Mhz, otro indicador es la velocidad de respuesta en milisegundos (ms), en general, todas están dentro del rango “mas que aceptable”, de 60 Mhz o mas y 3ms o menos. Lo importante es que de una gran cantidad de imágenes por segundo, pero hay que recordar que los seres humanos solo percibimos una cierta cantidad de ellas.

Bueno esto es un poco sobre las pantallas, hemos hablado bastante de Televisores, pero aplica a los monitores, a las pantallas de los notebooks, de los móviles y cuanto aparato haya hoy en día. Espero que les sirva.

PD: Pronto volveré con mas temas Open Source, este es uno que tenía reservado …falta de tiempo.