Herramientas de Transformación de Imágenes

GUIA

Las Herramientas de Transformación son quizás las mas básicas en la edición de imágenes, son capaces de  generar cambios que afectan a la imagen en sí, a nivel global, generalmente se usan en visores de fotos  (F-Spot, Gthumb, Shotwell, etc.) y otros programas que aplican edición de imagen (GIMP, Pinta, etc), incluso en las de Ofimática (OpenOffice). Nombraremos las principales.

A la izquierda algunas de las herramientas que GIMP posee para transformación, a la derecha las del visor y organizador gThumb.

Rotar y Girar: Gira la imagen sobre su propio eje, permite pasar de una posición vertical a horizontal o viceversa.

Muchos programas presentan botones para esto que permiten una rotación de 90° a la vez, otros en tanto permiten utilizarlo  en el mismo lienzo, mediante arrastrar los bordes con el mouse, muchas veces aparece esta opción al hacer un segundo click en la imagen.

A la derecha la herramienta “girar” de GIMP, arriba la opcion básica de giro del visor de imágenes y abajo la herramienta de giro de OpenOffice.org Dibujos.

Reflejar o Voltear: tal como un espejo, intercambia la posición de la imagen, de derecha a izquierda o al revés.

En este caso se usan principalmente botones y menús de “Reflejar” o “Voltear”.

Un pequeño ejemplo de la herramienta “reflejo”.

Redimensionar o Escalar: Aumenta o Reduce el tamaño de una imagen, expandiendo o disminuyendo la cantidad de píxeles que posee.

Por lo general se realiza con tiradores ubicados en las esquinas y bordes de una imagen, en otros casos introduciendo los valores de forma especifica, algo importante a tener presente es el mantener las proporciones, el mismo alto por el mismo ancho relativo cosa de no deformar la imagen, esto ultimo muchas veces aparece como opción, otras basta con arrastrar desde una esquina en vez de un borde y en el caso de Gimp, haciendo un click en la cadena, si está unida, como en el ejemplo de abajo, significa que guardará la proporción de aspecto de la imagen.

La herramienta “Redimensionar” de GIMP, utiliza tanto el arrastre desde los bordes, como el ingreso especifico del tamaño.

Recortar: permite extraer un tozo de la imagen, no se aumentan ni disminuyen píxeles, solo se selecciona un área y se elimina el resto.

Aquí muchas veces se usa la herramienta de selección, con el cual se puede eliminar el resto o tomar el área seleccionada, otras aplicaciones proponen un área pre seleccionada que se puede ajustar para luego recortar como es el caso de Simple Scan. Luego solo queda “cortar”, muchas veces hay un botón o entrada de menú (en Gimp: Imagen>Recortar a la Selección) específico para ello. También es bueno “hacer zoom” para ser mas precisos en el corte, ya sea desde la barra de herramientas o con la combinación Ctrl+scroll hacia arriba del mouse.

A la derecha, la herramienta “recortar” de Pinta y a la izquierda la respectiva de gThumb.

En general estas herramientas son muy comunes y varias aplicaciones las utilizan, sin embargo las implementaciones para su uso son distintas, algunos operan desde barra de herramientas, mientras que otras lo hacen dentro del lienzo con el uso del mouse. De todas maneras ya sabes que esperar mínimamente de un programa con edición de Gráficos, solo debes buscar las opciones.

De entre las aplicaciones que poseen estas funcionalidades están: Gimp, Inkscape, gThumb, Gwenview, Digikam, F-Spot, OpenOffice, Pinta, entre otras.

Sobre Dibujos Libres y Edición Gráfica

Centrándome un poco mas en el objetivo inicial de esta “bitacora”, he añadido una sección llamada por ahora “GRÁFICOS”, en la cual pretendo ir centralizando y acumulando recursos de todo lo que tenga que ver con dibujos, fotos e imágenes digitales, por supuesto, con el uso de Software Libre y OpenSource, la idea es seguir posteando normalmente, pero todo lo que tenga que ver con esos temas irán quedando referidos en esa sección para su posterior revisión, y es que muchas veces es difícil encontrar “todo junto” sobre un tema en un blog (por supuesto, es un blog) y las búsquedas no ayudan mucho, en lo que a orden lógico se refiere.

Sé también que están las wikis y paginas especializadas, de donde precisamente sacaré información, pero esto es para gente aun mas floja que yo que desee todo mas a la mano y rápido, por lo mismo los artículos serán sencillos y fáciles de entender. La sección será bastante simple y clara, sin muchos elementos, para no confundir, ni tener que pensar o divagar mucho,  pretendo mas adelante ir sacando secciones similares para otros temas, espero que les ayude este pequeño experimento que intentaré hacer.

Seccion: GRAFICOS

Primera subseccion: Conceptos Básicos

Software Libre y OpenSource en Instituciones y Gobiernos

Reflexionando un poco en el comentario hecho hace ya varios días Neelie Kroes (y que no he posteado por falta de tiempo), he querido compartir un punto de vista que encuentro importante tanto social como económicamente, y que tiene que ver con el uso de tecnologías abiertas en los gobiernos y de paso, en empresas.

Si bien una de las primeras ventajas que salta a la vista cuando se habla de Software Libre en una empresa o gobierno es el factor COSTO, creo que ese no es el principal motivo o razón para cambiar, o al menos no debiera serlo. En realidad el Software Libre y el OpenSource nunca se han tratado de un asunto de ahorrar costo, aun cuando en la práctica finalmente resulte así. Lo que puede entregar el codigo abierto a instituciones y empresas es mucho mas que eso, y quiero acotar solo algunas de las cosas que en realidad puede otorgar:

Independencia Tecnológica: tal como lo menciona Neelie Kroes en su comentario, muchas empresas se encuentran encerradas en soluciones propietarias de las que es muy complicado salir, por ejemplo dependen de los formatos propietarios (doc, xls, etc), tan solo en Alemania pasar al estándar ODF ha demandado años, y es, quizás, el primer obstáculo en cual pensar por parte de una empresa que pretenda usar software alternativo, mas allá que dicho software también pueda trabajar con formatos propietarios. También dependen de sistemas y diversos antojos de empresas propietarias, donde prima el bolsillo por sobre la utilidad y funcionalidad, solo basta con ver el caso de Windows Vista, un sistema no acabado que generó muchísimos problemas, dejando a empresas e instituciones con dos opciones, arriesgarse a usarlo, gastando gran cantidad de dinero en hardware, implementacion y licencias y no obteniendo mayores ventajas; o simplemente continuar con sus antiguos sistemas, muchos optaron por esto último, pero el caso es que durante años muchos han tenido que aguantar usar sistemas practicamente obsoletos o sufrir cambios “para mal” por el solo capricho de algunas empresas, con decisiones totalmente unilaterales donde lo que prima no es la necesidad del cliente, sino el beneficio económico que se pueda obtener del proceso. Ademas hay que sumar que dependen de sus partners, de su catalogo de programas y en el fondo de terceros, terceros que como ya decíamos no velan por el cliente, y que en cualquier momento se equivocan, cambian de estrategia o cambian las reglas del juego, pudiendo descontinuar productos, liberar programas llenos de errores, aumentar los precios, etc. todo de forma unilateral, y sin responsabilizarse ellos por las malas consecuencias que puedan haber, tal como lo señalan sus acuerdos de licencia.

En el mundo del Software Libre en tanto, no hay dueños, si bien hay grupos o hasta empresas que lideran algunos desarrollos, la licencia permite usar, modificar y hacer implementaciones de los programas de forma libre, cada gobierno o empresa puede tomar a cargo el desarrollo de sus programas con el uso de recursos y mano de obra local, dichas implementaciones se harían de acuerdo a las necesidades reales que se tengan y no cambios que sean innecesarios, se puede desarrollar de acuerdo a una planificación establecida y no al ritmo de los antojos de un tercero, y en definitiva se buscaría el mejor rendimiento, productividad y utilidad que se pueda lograr y no “vender mas” simplemente.

Productividad: Para lograr todo lo anterior hay que trabajar, pero aquí nuevamente el Código Abierto aporta su cuota de ventajas, en primer lugar no hay que crearlo todo desde cero, muchos componentes ya existen, todo ese código libre es un verdadero diamante en bruto con el cual se han creado y se pueden seguir produciendo autenticas joyas. En realidad cuando nació el concepto del Open Source, se tenia un concepto de generar beneficios prácticos. Al compartir, distribuir y descentralizar el trabajo se produce una autentica sinergia que logra imponerse muchas veces a los mas sofisticados desarrollos individuales. Un ejemplo de ello es el Kernel Linux, desarrollado por mas de 2000 desarrolladores de todo el mundo es una de las mas complejas, poderosas y robustas piezas de software, utilizado principalmente en sistemas de alto rendimiento, en este desarrollo muchas empresas tales como Red Hat, IBM, Intel, Novell, Sun, Oracle, entre otras, han contribuido de distintas formas para lograr un objetivo en común de poseer uno de los Sistemas mas potentes que hay, y luego cada uno de ellos puede utilizar dicho sistema para sus propios usos particulares, es como si varios amigos aportaran los ingredientes para lograr una completa comida que luego pueden disfrutar, y si aplicamos dicho método a cualquier pieza de software sin duda que se pueden lograr resultados fantásticos, no seria extraño que hubiera colaboración entre países para desarrollar aun mejores sistemas y aplicaciones, eso siempre y cuando se utilizara y aplicara el modelo de desarrollo del Software Libre y Open Source.

Ademas de que la sinergia producida por el modelo de desarrollo Open Source genera mayores resultados ahorrando trabajo, también tenemos el hecho de que la actividad informática cambiaría completamente de función, pasaría de ser análisis y reparación a programación y desarrollo, conservando el soporte y la capacitación, es decir aun mas puestos de trabajo en el área informática y hasta volverían valores tan importantes como la creatividad y la innovación que tanto escasean hoy en día.

Empleo: Ya mencionábamos, se requiere trabajo y por tanto trabajadores, quienes pasarían de ser espectadores a ser protagonistas, de simplemente revisar y solucionar problemas, a crear, programar y desarrollar completas plataformas; de un empleado de un partner de una multinacional, a ser parte de La Empresa de Informática de un país o institución; en definitiva un país pasaría de ser consumidor a productor, o por ultimo, ya seria independiente y autosustentable informáticamente hablando. Y es que en diversos países (fuera de Estados Unidos) muchas veces es bastante pobre el desarrollo informático y otros en tanto se limitan a implementar, medianamente bien, software y sistemas importados. Esta bien que en un comienzo sea asi, pero luego…, es decir en un comienzo puede que arriendes una casa, pero luego seria lógico tener la tuya propia, en un comienzo puede que uses y pagues locomoción colectiva, pero luego seria bastante mejor tener un vehículo propio, en especial si ya tienes a mas gente a la que llevar…, y los gobiernos y empresas tienen mucha gente a la cual llevar, no solo eso, sino que han alcanzado un gran nivel de desarrollo técnico e informático, suficiente como para que creen sus propias plataformas utilizando los recursos existentes, entre ellos las miles de lineas de código escritas y que se utilizan actualmente en el Software Libre y Open Source, esto incluye Sistemas Operativos, Controladores, Bases de datos, Servidores Web, Lenguajes de programación, servidores de aplicaciones, telefonía IP, Servidores de correo, aplicaciones de oficina y más. Así es que, en caso de comenzar, no se haría desde cero, y por lo demás generaría importantes beneficios locales, tanto a nivel material como personal.

Es por ello que, en la humilde opinión de este servidor, el uso de código abierto en la actualidad no solo es bueno, sino muy necesario, y no tanto por el factor costo, sino por los demás beneficios a mediano-largo plazo que se pueden generar. Por otra parte es una lástima que muchas mentes brillantes de la informática se pierdan, conformándose con estar ahí, sirviendo de perro guardián del Software Propietario de grandes compañías, en vez de ser participes de un desarrollo que puede beneficiarlos a ellos y a su sociedad mas inmediata. Pero no todo es malo, actualmente ya hay muchos países (y cada vez mas) que apuestan por el software de código abierto en sus instituciones y empresas, se han dado cuenta de la importancia que tiene poner manos a la obra y no dejar al azar algo tan importante como los sistemas informáticos, no permitiendo que el miedo los venza, sino siendo proactivos y cambiando su suerte para el futuro.

Sobre HD, Full HD y Calidad de Imagen

ENTENDIENDO

Sobre HD, Full HD y “verdadera” calidad de Imagen

Muchas veces oímos publicidades de televisores que hacen gala de ser FullHD, entregar una máxima calidad de imagen y demás. Pero grande es la sorpresa cuando, tras la compra, muchos descubren que la calidad de imagen es incluso peor de lo que tenían en sus viejos televisores, entonces ¿que significa el maravilloso FullHD?, ¿en que fijarse a la hora de comprar un Televisor, Monitor o cualquier tipo de móvil y gadget a la hora de esperar calidad de imagen?, bueno, entendamos un poco mas del tema.

Pixeles

Descripción corta: un puntito de color en la pantalla. En realidad se define como la menor unidad homogenea de color de una imagen digital, la cantidad de pixeles nos indica cuantos de esos puntos hay en una imagen, muchas veces esto sale como 1074×768 es decir 1074 puntos de ancho por 768 puntos de alto, un total de 824832 puntitos de color, lo cual es bastante bueno, pero en cuanto a video, muchas veces se usa un solo valor, por ejemplo 360p que es la “calidad” los videos estándar de youtube, aunque también los puedes aumentar a 480p o 720p, en este caso ese valor representa la cantidad de puntitos que hay de arriba a abajo en una imagen, es decir la cantidad de lineas horizontales de una imagen, de esta forma se puede comparar mejor entre uno y otro. En el caso que mencionábamos de youtube veras que la imagen mejora conforme mas cantidad de “p” hayan, eso indica una mayor concentración y densidad de pixeles, con lo cual las imágenes son mas nítidas, los bordes de lo que veamos serán mas definidos y se tendrá una “buena imagen”. En cuanto a la “p”, en este contexto, significa “progresivo”, quiere decir que la imagen se dibuja una a una linea consecutivamente, como contra parte existe la “i” (por ejemplo: 1080i)  significa “entrelazado” donde la imagen se dibuja en dos partes, primero todas las lineas horizontales pares y luego las impares.

¿y el HD?

Básicamente es un “estándar” que se definió en 720p, la imagen en total tiene un tamaño por lo general de 1360×720 pixeles. De esta manera los nuevos televisores o son HD (720) o FullHD (1080), así todos se preparan para trabajar imágenes en esos tamaños y no en 1280×800, 1074×768, 1440×900, etc. intentando abarcar todas las resoluciones al mismo tiempo y creando un caos en poco tiempo, aunque esto ultimo igual termina ocurriendo. Como comparación los televisores comunes tenían una resolución de 576p. Bien, cuando tu tomas un video de 360p de youtube o una foto o imagen pequeña, digamos 640×480 y la amplias por tu pantalla (1074×768, 1280×800, 1366×720, etc.) veras que queda horrible, los 360p o 640×480 se han expandido por un espacio mucho mayor y todo se ha distorsionado. De esto podemos concluir que si tienes una pantalla con alta resolución, la imagen debe ser de una alta resolución también, no esperes una gran definición en un televisor Full HD (1080p) si la imagen que recibes es la convencional de 576p o menos.

Y a todo esto hay que sumar un detalle muy importante, lo que mencionábamos de “p” e “i”, a efectos prácticos, la “p” que se añade, quiere decir que la imagen se transmite a 60 cuadros por segundo y tiene 1080 lineas horizontales reales, en cambio la “i” son 60 cuadros entrelazados por segundo, “simulando” 1080p reales, ya que hace una combinación tan rápida que engaña a nuestros ojos, a lo mas la imagen se verá algo mas parpadeante en comparación. ¿Es tan malo el “i”?, pues no tanto, en realidad la calidad de imagen dependerá más de otros factores que de si es “p” o “i” (mas si se habla de 1080), como veremos mas adelante.

¿Y las Pulgadas?

También son importantes, todos esos pixeles rellenan un espacio físico, la cantidad de pulgadas dividida en cantidad pixeles da una cierta densidad, 720p en un monitor 13” tiene una densidad mucho mayor que 720p en un televisor de 42”, de hecho en 37” ya puedes notar que el HD se va quedando corto en calidad de imagen, y es que los 720p están demasiado expandidos en ese espacio (y en un televisor de 42 pulgadas ni hablar), por ello, un Full HD en televisores de esos tamaños viene bastante bien, son 2.073.600 pixeles que rellenan esas pantallas, lo cual es bueno, pero tiene un gran PERO, aun es difícil encontrar imágenes en esa calidad (de hecho un Blueray y otros pocos formatos ofrecen imagenes FullHD), habrá que esperar para que ese nivel de calidad comience a masificarse y logre sacar partido a las pantallas FullHD, al menos no en todas partes del mundo se tiene acceso a la “mas alta definición” y eso trae como consecuencia que un video común, muchas veces de unos 480p, se vea feo en una pantalla HD y peor en una Full HD.

Otros Factores en la Calidad de Imagen

La tecnologia de la pantalla: Una de las primeras “pantallas planas” en salir al mercado fueron los Televisores Plasma, luego y actualmente los LCD, y lo siguiente probablemente será la tecnología OLED y/o AMOLED. Básicamente su composición es distinta, Plasma = Gas, LCD = Cristales Liquidos, OLED = Partículas orgánicas. Estas composiciones inciden directamente en la viveza de los colores, el contraste que puede lograr la imagen y hasta la vida útil del producto, esto ultimo terminó por sacar del mercado a los Plasmas, de vida mas corta en comparación con el LCD. En todo caso es un punto muy importante, muchas veces notarás grandes diferencias entre una pantalla y otra, aunque sean de la “misma resolución”, debido a la forma de haber empleado las tecnologías los diversos fabricante.

Contraste: Se puede decir que es la máxima diferencia que hay entre un color blanco y un color negro, más contraste son colores más diferenciados, una imagen más nítida, contornos más definidos y se nota una imagen mas “viva” en comparación con una de bajo contraste. Normalmente se definen en rangos de 30000:1, 60000:1, 100000:1, etc.

Dos pantallas con la misma resolución pueden verse totalmente distintas por el factor contraste, es algo a tener muy en cuenta.

La iluminacion: En general no hay mucho problema con este punto, pero quizás hayas oído hablar de la tecnología LED, no es un nuevo tipo de pantalla, sino que la iluminación (la luz) se produce con esta tecnología, mucho mas ecológica y con menor consumo de energía que las anteriores luces. De todas maneras siempre se agradece una buena iluminación.

Reflejo y Antirreflejo: Hay pantallas que parecen espejo, en tanto otras se ven opacas y sin vida cuando están apagadas, aunque los televisores son, en general, antirreflejo, también es un punto a tener en cuenta, las pantallas “reflectivas” poseen un grado de definición algo mas “vistoso”, ideal para videos, películas y juegos, pero en el día es muchas veces imposible poder apreciar algo, en tanto las pantallas anti-reflejo son mas precisas en lo que respecta al color y mas “definidas”, al punto de “pixelarse”, de todas maneras los televisores y la mayoría de las pantallas han intentado solventar las deficiencias de cada una de ellas, minimizando las desventajas en especial de las anti-reflejo.

Angulo de visión: Es otro aspecto, también va en función de la tecnología y el tipo de pantalla, es algo en que fijarse a la hora de comprar un monitor o cualquier tipo de pantalla, en especial de un televisor.

Velocidad de refresco: muchas veces descrita con Mhz, otro indicador es la velocidad de respuesta en milisegundos (ms), en general, todas están dentro del rango “mas que aceptable”, de 60 Mhz o mas y 3ms o menos. Lo importante es que de una gran cantidad de imágenes por segundo, pero hay que recordar que los seres humanos solo percibimos una cierta cantidad de ellas.

Bueno esto es un poco sobre las pantallas, hemos hablado bastante de Televisores, pero aplica a los monitores, a las pantallas de los notebooks, de los móviles y cuanto aparato haya hoy en día. Espero que les sirva.

PD: Pronto volveré con mas temas Open Source, este es uno que tenía reservado …falta de tiempo.

¿Que es Linaro?

ENTENDIENDO

Es una iniciativa en conjunto de varias empresas para crear una base estandar de Linux que pueda funcionar en Tablets, Netbooks, Moviles, Television y otros aparatos. Esta iniciativa es muy importante ya que muchas veces ocurría que, por ejemplo, un desarrollousaba un núcleo Linux, luego debia incorporar varias herramientas especializadas para ser compatibles con dispositivos que van mas alla de PC y Notebooks, pero después se encontraban con que otro proyecto habia hecho algo similar, pero distinto, habiendo ambos proyectos duplicado esfuerzos para lograr lo mismo, en cambio ahora una sola entidad se encargará de coordinar el desarrollo de esas herramientas especiales, esa entidad es Linaro.

Esto es igualmente positivo para los desarrolladores de hardware, ya que ahora deberán preocuparse por ser compatibles con la base desarrollada por Linaro, y no con cada proyecto como MeeGo, Android, Ubuntu y otros de forma independiente, nuevamente se ahorra esfuerzo. Y por otro lado quien desee hacer una distro para tablets u otro dispositivo basado en ARM, ahora lo tendrá mas fácil, ya que no necesitará escribir mucho código, incluir drivers especiales o hacer cosas demasiado complejas, el conjunto de colaboradores de Linaro proporcionara la base lista para ser compatible con esos dispositivos.

Por si todas estas ventajas no fuesen suficientes, quienes integran Linaro son justamente empresas del rubro móvil, como ARM, Freescale, Texas Instruments, Samsung, ST-Ericsson y otros colaboradores como IBM y Canonical, todo esto con el apoyo de la Linux Fundation. A propósito de esto hay tres tipos de integrantes en este proyecto:

Núcleo: Los principales gestores de la iniciativa, quienes aportan con capital e ingenieria.

Club: Grupo de trabajo de Linaro

Comunidad de Miembros de Linaro: Donde se pueden incluir organizaciones o colaboradores individuales, cualquiera puede participar con un simple acuerdo de contribución.

Linaro trabajara a nivel de Kernel Linux y en contacto directo con el hardware, no creará una distro, sino que formará parte de ellas en el futuro, tampoco desarrollarán simplemente una aplicación, sino que el código creado se distribuirá incluso dentro del mismo Kernel Linux. Estará en upstream, es decir seguirá la corriente de desarrollo de Linux y las diferentes distros y estará en sincronía con ellos para ser integrado de la forma mas natural con ellos, incluso se anticipa que su desarrollo será cada seis meses. Por ultimo destacar que es una organización sin ánimo de lucro, aunque obviamente traerá beneficios indirectos a los involucrados.

Básicamente Linaro aplica la esencia del desarrollo OpenSource, donde hay varios intereses  en común y se aplica la cooperación para solventar una necesidad, en este caso empresas proveedoras de hardware, vendedoras de dispositivos y desarrolladores de software se unen para ofrecer una solución integral que seria muy difícil de conseguir si cada uno actúa por su cuenta y finalmente se beneficia el usuario al encontrarse con un producto realmente notable y óptimo, ya que cada empresa aporto su especialidad, lo que mejor sabe hacer, en un mismo proyecto, si todo se hace bien la suma final de un 2+2 resulta en 5, gracias al valor añadido de un buen hacer.

En fin, es una iniciativa muy interesante que pretende sentar un estándar en un ambiente tan diversificado como son la variedad de sistemas Linux, ahorrar esfuerzo, trabajo y costo, y generar mejores productos finales para nosotros los usuarios. Esperamos que tengan el mejor de los éxitos y que hagan el mejor trabajo posible, el primer lanzamiento esta programado para Noviembre de 2010, estaremos atentos a nuevas noticias sobre ellos.

Pagina del proyecto: http://www.linaro.org/