Analizo.info usa la inteligencia colectiva para analizar datos


euskadinnova.net

La iniciativa se basa en la colaboración ciudadana para realizar investigaciones utilizando grandes cantidades de datos. Está dirigida a proyectos sin ánimo de lucro que promuevan la transparencia en política, economía y medio ambiente.
El primer proyecto de investigación que incluye el espacio Analizo.info consiste en extraer las posiciones que defienden los partidos españoles en el Parlamento Europeo en temas relacionados con el Desarrollo Sostenible, a través del análisis de 1.288 proposiciones presentadas en las últimas elecciones europeas. La intención es mostrar más claramente las propuestas de cada partido y que la ciudadanía pueda ver si se cumplen o no.
Labores como esta resultarían lentas y tediosas si las realizan un pequeño grupo de personas, pero no tanto si se abre la participación a toda la comunidad interesada, y en eso se basa el proyecto Analizo.info, creado por un equipo de investigación de la Escuela Técnica Superior de Ingeniería Informática de la Universidad de Valencia. El espacio permite incluir iniciativas, siempre que sean sin ánimo de lucro y estén dirigidas a promover el cambio social o la transparencia democrática. Los resultados de las investigaciones se publicarán de forma abierta para que puedan ser reutilizados.
Según sus fundadores, Diego Álvarez y David Pardo, la idea se basa en proyectos ya existentes que utilizan el potencial del crowdsourcing y la colaboración ciudadana como Datakind,Globalpulse o Change.org. Se inspira también en el conocido caso de éxito del diario The Guardian, que en 2009 consiguió analizar cerca de 200 mil documentos en pdf sobre los gastos de los parlamentarios británicos en solo 80 horas, gracias a la colaboración ciudadana.

También puede interesarte: Una guía para avanzar hacia el gobierno abierto

Preservación de la información creada en formatos digitales


cubarte.cult.cu

Obsolescencia técnica y el deterioro físico sus dos principales enemigos

Preservar la información que ha sido creada mediante la implementación de tecnologías digitales resulta, hoy en día, un reto de gran magnitud para los que están responsabilizados con administrar sistemas informáticos.

Sin lugar a la más mínima duda, cada día son más los recursos culturales y educativos del mundo que se producen y distribuyen, y a los que a su vez se tiene acceso en forma digital y no en formatos de papel. El patrimonio de origen digital que puede consultarse en línea, por ejemplo, las publicaciones periódicas electrónicas, las páginas de la Red mundial o las bases de datos en línea, ya forman parte del patrimonio cultural del mundo. Ahora bien, sucede que la información digital está expuesta a la obsolescencia técnica y el deterioro físico.

Tal como afirma el documento de la UNESCO sobre la preservación de la información digital en su primer artículo:

Artículo 1 - Patrimonio digital
Cada vez más, los recursos que son fruto del saber o la expresión de los seres humanos, sean estos de carácter cultural, educativo, científico o administrativo o engloben información técnica, jurídica, médica y de otras clases, se generan directamente en formato digital o se convierten a este a partir de material analógico ya existente.

Los productos “de origen digital” no existen en otro formato que no sea el electrónico original.

Los objetos digitales pueden ser textos, bases de datos, imágenes fijas o en movimiento, grabaciones sonoras, material gráfico, programas informáticos o páginas Web, entre otros muchos formatos posibles dentro de un vasto repertorio de diversidad creciente.

A menudo son efímeros, y su conservación requiere un trabajo específico en este sentido en los procesos de producción, mantenimiento y gestión.

Muchos de esos recursos revisten valor e importancia duraderos, y constituyen por ello un patrimonio digno de protección y conservación en beneficio de las generaciones actuales y futuras. Este legado puede existir en cualquier lengua, cualquier lugar del mundo y cualquier campo de la expresión o el saber humanos. (1)

Antecedentes históricos

La llegada al mundo de la documentación, de la creación y almacenaje de la información utilizando formatos digitales comienza a partir de la Segunda Guerra Mundial, cuando se desarrollan las primeras máquinas computadoras. Hasta ese entonces la humanidad contó con el soporte de papel, los discos para grabar mecánicamente sonidos, posteriormente las cintas magnéticas, así como las películas fotosensibles.

Las primeras computadoras no contaron con otros sistemas de almacenaje que no fueran el enviar a equipos periféricos impulsos eléctricos destinados a perforar cintas de papel o escribir en equipos teleimpresores adaptados a este fin.

La llegada de los soportes de almacenaje magnético primero y los ópticos más tarde es lo que da lugar a la creación de un problema cuya solución definitiva está todavía por lograrse, si es que algún día se podrá encontrar una fórmula mágica de preservación digital a muy largo plazo.

La información más vulnerable en cuanto a su posible preservación a corto, mediano y sobre todo a largo plazo, es la que “nace” en formatos digitales de cualquier tipo, sin que sea precedida por su creación en otros soportes como papel, discos de acetato o películas en blanco y negro o en colores, por citar algunos ejemplos.

Es precisamente esa información tan extraordinariamente vulnerable la que requiere hoy en día de los mayores esfuerzos para evitar su total desaparición ante situaciones como son las alteraciones en los parámetros de funcionamiento de los equipos de cómputo y sus periféricos, el daño físico de los soportes magnéticos u ópticos y por supuesto no hay que descontar los intentos de destrucción intencional.

No hay una fórmula mágica para la preservación de la información digital... ni siquiera a muy corto plazo, y mucho menos si se pretende que los datos almacenados transciendan una o más generaciones.

Pero, no es menos cierto que a diario se pierde para siempre y en no pocas ocasiones a un costo muy grande tanto moral como material, una gran cantidad de información digital, debido a no tomarse las medidas imprescindibles para su preservación.

Aunque la denominada “Informática Forense”, nos asombra cada día con nuevos aportes al rescate de información digitalizada dañada de una u otra forma, el acudir a los recursos de esta rama especializada resulta no solo costoso, sino también difícil de acceder, pues el número de expertos y laboratorios dedicados a estas labores detectivescas no es suficiente para enfrentar los problemas de pérdida o de intentos de borrar información digital que ocurren a diario en todo el mundo.

La obsolescencia de los equipos de lectura y grabación
Un problema que se está presentando, cada vez con mayor frecuencia, es que se cuenta con la información grabada en un formato digital determinado, e incluso debido a un buen trabajo de almacenaje bajo condiciones óptimas, el sopote en que fue grabada se encuentra en buenas condiciones... pero, han pasado muchos años desde que se utilizaron los discos flexibles de 8 pulgadas de diámetro o los un poco más “modernos” de 5¼ pulgadas, y ahora hay que enfrentar la realidad de no disponer del correspondiente sistema de lectura para dichos discos.

¿Dónde está disponible una computadora que posea en perfecto estado de funcionamiento una “torre de floppy” de 8 o de 5¼ pulgadas?

Por supuesto que no se la va a encontrar en el inventario actual de la gran mayoría de los sistemas y redes de computación. Solo será posible localizar estos lectores en laboratorios dedicados a la llamada “arqueología digital”, donde con mucho cuidado y bajo condiciones ideales se preservan los equipos de cómputo “del legado” capaces de leer los datos guardados en formatos que hace varias décadas se utilizaron a diario, pero que hoy en día son incluso irreconocibles para los recién graduados.

El mismo problema de los discos flexibles de 8 y 5¼ pulgadas lo estamos viendo con los “floppy” de 3.5 pulgadas, pues el abandono total del soporte a ese formato de almacenaje es una realidad que se expresa en la ausencia del lector/grabador para los floppy de 3.5 pulgadas en las computadoras de escritorio y las portátiles actuales.

El problema que se plantea con la información almacenada en los llamados discos “duros” o “rígidos” es muy similar, ya que varios de los formatos empleados para grabar la información en ellos son ya cosas del pasado lejano si hablamos en el lenguaje de la informática.

Discos del sistema MFM (Modified Frequency Modulation), en los que se ha mantenido guardada valiosa información son hoy en día ilegibles, no porque estén borrados los datos en sus pistas, sino porque simplemente no hay computadoras equipadas con las interfases capaces de conectarse a esos discos.

Los discos IDE (Integrated Drive Electronics), aunque más recientes ya están en total obsolescencia, lo que dificulta actualmente la lectura de los datos almacenados en ellos, lo cual será un problema cada día más preocupante.

En cuanto a los sistemas de almacenaje ópticos, de los que originalmente se crearon grandes expectativas en cuanto a una durabilidad de decenas de años, e incluso pretensiones de preservación por siglos, se puede afirmar que sus vulnerabilidades se han ido “descubriendo” a medida que ha pasado el tiempo... desmintiendo las pretensiones de sus creadores acerca de haberse alcanzado el non plus ultra de la preservación digital.

Y tras esta introducción... he aquí nuestra recomendación para lograr preservar, al menos a mediano plazo, quizás de 5 a 10 años, la información almacenada en sistemas de cómputo digital.

Las recomendaciones están contenidas de manera muy detallada en un documento creado por la UNESCO en cuya redacción y revisiones tuvimos participación directa en nuestro carácter de Consultante de la Comisión Nacional Cubana de Cooperación con la UNESCO, conocida internacionalmente como CNCU Cuba.

Este documento titulado Carta de la UNESCO sobre la preservación del patrimonio digital trata en forma analítica y detallada sobre estas cuestiones y puede ser obtenido desde el sitio WEB de la UNESCO .

El estudio de sus 176 páginas brinda la oportunidad de conocer en detalles todos los problemas relacionados con la preservación del patrimonio digital, así como una gama de opciones disponibles para prolongar en lo posible la vitalidad de la información.

"Picasso y Rembrandt trabajan para Linux"


Página 12

El director de la fundación que administra el trabajo colaborativo liderado por Linus Torvalds asegura que el kernel está desarrollado por “los mejores programadores del mundo”. El corazón del sistema operativo cumple 21 años de edad. Microsoft como sponsor.
La historia de cómo Microsoft –principal enemigo de Linux durante dos décadas– se convirtió en uno de los principales contribuyentes de líneas de código al kernel bien merece un golpe de orgullo en el pecho de la comunidad de desarrolladores de la cultura abierta. Y de cómo se convirtió en un deslucido sponsor de la LinuxCon, la conferencia de Linux anual europea –que este año se realiza en Barcelona– no deja de ser entretenido. Steve Ballmer, actual CEO de la empresa, había dicho hace unos años que “Linux era como el cáncer” y que había que erradicarlo. En 2009, sin embargo, Microsoft comenzó a colaborar en líneas de código para el kernel, pero la relación con los desarrolladores no fue del todo buena, más que nada porque el código no se mantenía como esperaban los del mundo Linux. Esos problemas fueron “remediados”, según contó Greg Kroah-Hartman, uno de los picassos de Linux. Los problemas iban en el mismo sentido que Android, cuyas modificaciones fueron implementadas en Linux después de haber sido rechazadas durante años. “Vendieron 100 millones de teléfonos móviles inteligentes, algo deben haber hecho bien”, confió Linus Torvalds en la charla magistral que ofreció en el Fira Hotel, de Barcelona. Jim Zemlin escribió hace unos días un artículo donde decía “Bienvenido a la era post-desktop Microsoft, encontrarás un mundo bastante diferente”. Zemline escribía que “debido a los teléfonos inteligentes, las tabletas y otras computadoras personales, la presencia de Microsoft cayó drásticamente un 30 por ciento en 2012”.
–Y entonces, ¿cómo fue que Microsoft se convirtió en sponsor de la LinuxCon?–No sé, nos llamaron.
–Hace poco le dio la “bienvenida a Windows 8” porque iba a encontrarse con un panorama totalmente distinto a lo que ocurrió hace tres años con la salida de Windows 7. ¿Por qué piensa que Microsoft se acercó a la Fundación Linux?–Microsoft quiere participar en el mundo de Linux, quiere hacer cosas en ese sentido y apoyar lo que sus clientes y el mundo quieren. Yo quería mostrar cómo el mundo ha cambiado dramáticamente en este tiempo. Microsoft representa una gran fuerza de computadoras, cerca del 90 por ciento de las computadoras personales usan Microsoft, tienen una gran influencia en todo el planeta. Pero como van, están perdiendo terreno en el mercado en relación con lo que los clientes quieren y lo que el mundo quiere. Ahora tienen que convivir con tabletas, con teléfonos inteligentes, con la nube, con Internet, y eso es interesante.
–Es más claro entender qué hace Linus Torvalds, pero ¿cuáles son los objetivos de la Fundación Linux?–Usted sabe lo que hace Linus, nosotros tenemos que asegurarnos que Linus Torvalds pueda seguir haciendo lo que hace. Trabajamos en la infraestructura y en el marco legal que le permite hacer el trabajo que hace. Linus dice que no está preocupado por el desarrollo de la tecnología y los contribuyentes al kernel, sino por el sistema legal de patentes. Nosotros defendemos a Linus cuando lo necesita, y mantenemos los servidores para que pueda existir esta escala global de colaboración. Mantenemos las luces prendidas.
–Entre los problemas principales, está el tema de las patentes y los grandes grupos económicos que lucran con ellas. Algunos opositores al sistema de patentes norteamericano proponen irse de Estados Unidos. ¿Usted qué piensa?–Es el mercado tecnológico más grande del mundo, suena poco realista.
–Pero hay un gran problema con las patentes en Estados Unidos. ¿Qué hace la fundación?–Nosotros abogamos por un cambio en el sistema de patentes. Muchos usan el sistema de patentes para sacar plata, pero no hacen realmente nada productivo, es un modelo terrible. La Fundación Linux está trabajando en el sistema de patentes, hay grupos que compran patentes para defender al código abierto. Estamos ayudando a mejorar la calidad de las patentes, trabajamos dentro del kernel para mejorar la colaboración.
–Otra de las cosas que hace la fundación es organizar tres congresos anuales. Pareciera que se mantienen las relaciones de los desarrolladores de conferencia en conferencia.–Estos eventos son un buen ejemplo. Cuando empezó Linux, muchos años atrás, la idea era que se podía trabajar colaborativamente para crear algo de manera remota. Pero aun cuando están las listas de correo, es mejor verse cara a cara, intercambiar ideas, tomar decisiones técnicas. Por eso hacemos estos eventos.
–Hay un trabajo que compara el modelo productivo de Toyota con la cultura colaborativa de Linux.–Sí, lo conozco...
–Pero ellos sí tienen una fábrica y tienen autos. ¡Y ustedes no tienen ni cuartel central!–Somos afortunados, no los necesitamos.
–Hacen software de alta calidad. ¿Cómo lo hacen cuando la mayoría de la gente trabaja en otras empresas, que mantienen el kernel desde “afuera”?–La gente que trabaja en la Fundación Linux tiene grandes oficinas, todos trabajamos en casa, pero puedo decirte con absoluta seguridad, porque es una política de la empresa, cada miembro de la Fundación Linux toma una ducha una vez al día antes del mediodía. Pero en términos de trabajar con software alrededor del mundo, haciendo software colaborativo, la respuesta es sí, Linux fue construido en casas, que apoyan la comunidad en todo el mundo. Lo más impresionante es que grandes servidores de Internet, aparatos médicos críticos, autos, todo eso corre en Linux y muestra que se puede producir de otra manera, es grandioso ser parte de esto.
–El modelo ha sido replicado, pero no exactamente de la misma manera.–Ni sé cuánta gente trabaja en Mozilla. Pero Apache webserver, Webkit, tecnologías web, hay miles de ejemplos de similitudes en el trabajo colaborativo: open stack, mysql, Libreoffice, estos son todos productos creados usando el modelo de Linux y tienen la misma estructura de gobierno. Esa es la forma de crear software, es también usando software en la industria de la ciencia, de la minería, y el famoso crowdsourcing, que está basado en los principios de Linux.
–Pero ¿por qué son tan pequeños como organización?–Si necesitáramos ser más grandes, lo seríamos. Somos mucho más grandes que hace cinco años. Somos grandes porque la infraestructura de conectividad de los servidores que llevan los procesos de Linux ha crecido. Pero sobre todo somos estables y podremos seguir siéndolo. Porque Linux seguirá existiendo por 50 o 100 años más, y mientras construyamos una infraestructura que pueda apoyar ese modelo para que los que hacen Linux sigan haciéndolo entonces, o quien venga después, entonces habremos hecho un buen trabajo. No seremos más grandes si no lo necesitamos.
–Son una especie de organización en la nube.–¡Sí! La gente que trabaja en la Fundación Linux es muy buena en lo que hace. Algunos de los mejores programadores del mundo trabajan en Linux. Si pensamos en los ingenieros como en pintores, Picasso y Rembrandt serían desarrolladores de Linux. Greg Kroah-Hartman y Linus Torvalds son de los mejores programadores de todo el mundo.

Innovación e inclusión financiera


Diario Gestión
Kurt Burneo Farfán
Economista

En la literatura económica sobre determinantes del crecimiento, el acceso al financiamiento es un factor relevante, y siendo, por su número, las micro y pequeñas empresas (mypes) las unidades predominantes en los países en vías de desarrollo, resulta crucial facilitarles el acceso a servicios financieros. En esta nota brevemente comentaré sobre una innovadora iniciativa que facilitaría este objetivo.
Hoy, en el Perú, con algo más de tres millones de mypes, solo la mitad accede a servicios financieros. ¿Y esto por qué? Por varias razones: garantías insuficientes, inexistencia de background financiero, informalidad etc. Todo esto restringe a este tipo de firmas calificar como sujetos de crédito bajo las herramientas tradicionales de evaluación crediticia. Frente a esto, existe una interesante opción alternativa de medición, como es la evaluación sicométrica, la cual posibilitaría a las instituciones financieras investigar el perfil sicológico, la integridad, ética, la inteligencia y la habilidad para los negocios de los empresarios como variables fiables de la solvencia crediticia de las mypes y así flexibilizar algo las barreras de acceso a servicios financieros, dado que hay requisitos por regulación que aún deben ser mantenidos. Esta herramienta evaluativa alternativa, en realidad es un modelo de la Entrepreunerial Finance Lab, empresa sin fines de lucro escindida del Entrepreneurial Finance LabResearch Initiative de la Universidad de Harvard. La calificación en este modelo se sustenta en los aspectos básicos de la evaluación del riesgo financiero relacionados con las personas, en lugar ya sea del negocio, el historial crediticio o la constitución de garantías.
El modelo busca determinar cuál será el flujo de caja futuro de los empresarios y la disposición que tendrían para pagar sus créditos. Investigaciones recientes evidencian relaciones sistemáticas entre el éxito empresarial y atributos personales. De esta forma, empresarios exitosos logran sistemáticamente calificaciones más altas en ciertas pruebas de aptitud detentando rasgos de personalidad y estilos cognitivos particulares que son medibles. Por ello, se han construido herramientas estadísticas para mensurar estas dimensiones utilizando parámetros sicológicos, que en su conjunto constituyen la sicometría.
Sobre la base de estos desarrollos, el Centro de Desarrollo Internacional (CID por su acrónimo en inglés) de la Universidad de Harvard, emprendió una iniciativa con respaldo financiero de Google.org para crear una herramienta de evaluación y ponerla a prueba en Latinoamérica y África. La metodología se aplicó con 3,000 clientes de nueve instituciones financieras. Se evaluó estadísticamente comparando las calificaciones que lograron los empresarios con su desempeño en el ámbito de los negocios y su historial de reembolso de préstamos. Las implementaciones simuladas muestran una reducción entre 20% y 25% en las tasas de incumplimiento y un incremento entre 15% y 30% en las utilidades, a un costo de menos del 40% de las evaluaciones y procesos de debida diligencia tradicionales. En suma, esta metodología mostraría mayor capacidad predictiva comparada con los modelos clásicos de evaluación crediticia, basados en récords crediticios y estados financieros auditados; al analizarse la incidencia de estas pruebas sobre el riesgo, el rendimiento y el acceso global al financiamiento. A todo esto la buena noticia es que en el Perú ya hay un banco, que en experiencia piloto desde julio está aplicando esta herramienta de evaluación alternativa con US$ 400,000 colocados en créditos con calificación de normal y adicionalmente el BID ya estaría evaluando financiar este tipo de iniciativas a una escala mayor. Claramente estamos frente a un caso en el que la innovación posibilitaría una mayor inclusión financiera.

El blogger que destapó el mercado negro de datos de usuarios de Facebook


alt1040


Por todos es sabido que los datos de los usuarios son tratados como mera mercancía para terceras empresas. Una reciente historia da un paso más allá, la de un blogger y activista que logró comprar datos de más de un millón de usuarios (y no al propio Facebook) de esta red social por apenas cinco dólares, como cuenta Forbes.
El blogger en cuestión es Bogomil Shopov, activista de derechos digitales de la República Checa, que publicó en su propio blog la noticia de esta adquisición. Así se revelaba la existencia de un mercado negro de datos personales de usuarios de FacebookAcabo de comprar más de un millón de… ¡Datos de usuarios de Facebook! ¡OMG!, escribió Shopov el pasado martes en su blog. Una revelación que, como es natural, preocupó a la compañía, que no tardó en ponerse en contacto con él.
Mediante un correo electrónico, le pedían un teléfono con el que contactar de forma más directa. Shopov accedió, y la posterior llamada, le pedían que no difundiera la espinosa información que había descubierto, y que borrara el contenido que ya había publicado. La propia red social le alertó de que la llamada estaba siendo grabado, toda vez que trataban de quitar hierro al asunto asegurando que la llamada era en aras de ‘mejorar el servicio’. Shopov ya había explicado que en dicha lista había encontrado incluso varias cuentas de sus amigos. Una lista que tenía datos de usuarios mayoritamiente originarios de Estados Unidos, Canadá, Reino Unido y el resto de Europa. Concretamente, nombres de usuario, nombres reales, y correos electrónicos asociados. Y que como ya se encargó de investigar, no habían sido obtenidas únicamente mediante cuentas desprotegidas, de fácil acceso público. También habían cuentas supuestamente privadas con los datos ocultos.
Facebook, días más tarde, trató de difundir una versión diferente: estos datos de usuarios únicamente pudieron ser registrados mediante el rastreo de cuentas desprotegidas a las que extraer información. Teoría que choca con la versión del blogger, y con la lógica. El esfuerzo de rastrear un número desconocido de cuentas para lograr encontrar 1.100.000 desprotegidas y organizar su información, difícilmente será viable, y mucho menos vendido por la ínfima cantidad de cinco dólares. El método era otro: recopilar datos a través de las aplicaciones internas de Facebook.
El ofrecimiento estaba publicado en la plataforma Gigbucks por el usuario Mertem, quien sostenía la versión de las aplicaciones, y trataba de tentar a potenciales compradores asegurando que los usuarios de dicha lista eran usuarios activos, y que de tener cualquier producto o servicio a ofrecer, esa información era potencialmente interesante para el vendedor.
La moraleja de esta rocambolesca historia es la que pretende expandir Shopov: cualquiera es capaz de obtener datos ajenos en internet, pero sobre todo de usuarios que aceptan las condiciones y términos del servicio de aplicaciones de terceros, en cuyo caso sus datos personales van a parar directamente a desarrolladores que ya los tienen en sus manos y pueden hacer cualquier cosa con ellos. Como por ejemplo, vender un pack por unos pocos dólares al primer interesado que los vea. Este blogger no es un novato en esto, está inmerso en numerosas actividades y plataformas para la defensa de la libertad y la privacidad en la red, así como ligado al Partido Pirata. De momento ha logrado un avance al alcance de pocos: poner en alerta a todo un equipo de ingenieros de seguridad informática de una red social con más de mil millones de usuarios.

Reciclando el código fuente de aplicaciones la Comunidad Europea ahorra 450.000 millones de euros


fayerwayer.com

El debate sobre los costos de implementar un complejo sistema basado en software libre a escala corporativa parece haber llegado a un punto de inflexión luego de que en la Libre Software World Conference 2012 celebrada en Santiago de Compostela, España, el especialista italiano Carlo Daffara asegurara que “la economía europea se ahorra 450 mil millones de euros gracias a que reutiliza el código fuente de las aplicaciones que se dan de baja para crear nuevas”, algo que sería imposible de implementar con plataformas licenciadas.
Esta eterna lucha tuvo durante mucho tiempo como argumento, por el lado del software libre, el costo cero de licenciamiento y por parte de los productos cerrados, la complejidad y precio de implementar una solución abierta, que requiere técnicos especializados y muchas horas hombre de trabajo, contra un paquete cerrado con instalación guiada y soporte permanente.
El argumento del italiano Daffara, que además de ser asesor en software libre para la Unión Europea, también trabaja con el CENATIC (Centro Nacional de Referencia para el Software Libre en España), destacó que el crecimiento de este tipo de software en la administración pública ha logrado no sólo el crecimiento de las tecnologías libres sino también un alto nivel de experiencia en metodologías para la reutilización de código en los proyectos tecnológicos públicos.
“El 35% del código de cualquier aplicación informática, independientemente de la licencia que lleve el producto final, ya es software libre reutilizado”, afirmó Daffara.
También destacó el caso español, donde existen muchas empresas de desarrollo locales, que podrían generar un ahorro aún más significativo, teniendo en cuenta que por cada euro gastado en software privativo en Europa, “el 86% de dicho euro se marcha afuera”, según sus palabras.
En la charla se destacó el caso de Brasil, el cual fue presentado por Júlio Cezar Neves, asesor del presidente del Servicio Federal de Procesamiento de Datos del Gobierno de Brasil, quien señaló que un eslabón muy importante son las comunidades asociadas a los proyectos de la Administración que son liberados.
Neves afirma que “aunque se trate de proyectos públicos, es imprescindible apoyarlos en Comunidades de Desarrolladores ya existentes o creadas para esas aplicaciones, ya que esos usuarios introducen más innovaciones que las propias empresas, y una comunidad de software libre, por su forma de funcionar, es la mejor manera de aprovechar esas innovaciones, mejorando y evolucionando el código, generando además riqueza en las empresas de ámbito local, que conocen el código y lo pueden aprovechar para sus productos, o para dar servicios en torno a esas aplicaciones liberadas”.
Calidad, eficiencia presupuestaria, alto nivel de tolerancia a fallas, son algunas de los adjetivos con los que se destacó el rol del software libre en las dependencias públicas europeas, donde los paquetes licenciados parecen haber perdido la batalla por el momento.

El software libre ahorró a Brasil 225 millones de dólares en el 2010


La Voz de Galicia

«Piense que en mi país hay 22 millones de jubilados, eso es la población de Australia. ¡Imagínese ahora cómo son los bancos de datos y la infraestructura informática para manejar eso! Es una de las razones para que migrásemos al software libre». Así se expresaba ayer en Santiago Júlio Cezar Neves, asesor del presidente del Servicio Federal de Procesamiento de Datos (Serpro) del Gobierno de Brasil. Dejar de pagar licencias por programas «que funcionan igual de bien», insiste el experto, le supuso al país un ahorro de 225 millones de dólares en el año 2010, y la cifra aumenta según crece la cantidad de software libre que se implanta en la Administración de los distintos estados.
Neves explica, sin embargo, que esta manera de nadar a contracorriente no resulta fácil. Iniciaron la migración hace quince años y con el primer obstáculo que se encontraron fue con la presión de la prensa, concretamente de los medios hegemónicos del grupo Globo. «La prensa está patrocinada por las grandes multinacionales y Brasil es un país dominado por la prensa, tienen bancos, radios, televisiones, periódicos...», señala. Y añade que todos los repetidores de la televisión de Globo en Brasil son propiedad de senadores «del partido que apoyaba la dictadura».
El experto señala que la prensa transmite pues la presión indirecta de multinacionales como Microsoft y, sobre todo, Oracle, que ven en la política de migración al software libre un serio peligro para sus negocios. «Gracias a algunos mandatarios, como mi presidente, en la Amazonía lo vamos consiguiendo, no sin esfuerzo», explica Neves, que sonríe recordando cómo, a veces, hay empresarios que le consultan y dudan de poder utilizar software libre para empresas de cuatrocientos trabajadores: «¡Si nosotros lo utilizamos en un servicio que tiene 11.000!», dice.
Google versus Bruce Perens
En la última jornada de la Libre Software World Conference, organizada por Agasol, con el apoyo de la Federación Nacional de Empresas de Software Libre (Asolif) y la Axencia para a Modernización Tecnolóxica de Galicia (Amtega), participó también como ponente Jeremy Allison, de Google, quien trató de hacer ver de qué manera su empresa utiliza y contribuye a promover fuentes abiertas. «Detrás de Google hay sobre todo -manifestó-, software, el hardware es sustituible, pero Google no podría existir sin la contribución del software libre». Justo acababa de decir que «no aceptamos que el software propietario nos impida crecer y mejorar» cuando recibió la inmediata respuesta, desde el público, de uno de los grandes gurús del sector, Bruce Perens, que le reprochó la manera férrea en que la multinacional controla sistemas como Android. Allison se defendió diciendo que Android, en todo caso, «es la excepción

Japón: Sancionan con dos años de cárcel las descargas ilegales


Peru21.pe
Japón tiene una de las leyes antipiratería más duras del mundo: quienes realizan descargas ilegales pueden recibir hasta dos años de prisión. Sin embargo, sanciones excesivas no solo son exclusivas del país nipón, pues en Panamá están a punto de promulgar una ley que aplicará multas de hasta US$100 mil para los que cometan este delito.
La Asociación de Industria Discográfica japonesa impulsó un cambio en la ley que pena con dos años de cárcel a quienes descarguen material pirata. Esta norma contempla también multas que van de US$1,1 millones hasta US$2,2 millones.
Anteriormente, las leyes japonesas contemplaban cárcel de hasta 10 años a quienes subían piratería a Internet.
SITUACIÓN EN PANAMÁ
En tanto, Fayerwayer informó que en Panamá una ley fue redactada “para hacer que las regulaciones estuvieran de acuerdo al tratado de libre comercio entre Panamá yEEUU”.

La norma contempla que la Dirección General de Derechos de Autor (DGDA) abra procesos de oficio que pueden terminar con multas de hasta US$100 mil, dinero que llegará a la DGDA y a sus empleados, convirtiéndose en un peligroso incentivo.

La industria farmacéutica mexicana rechaza al TPP


alt1040

Poco a poco, el tema de la negociación del Acuerdo Estratégico Transpacífico de Asociación Económica (TPP) en México ha comenzado a interesar a otros actores involucrados. Tal es el caso de la Asociación Mexicana de Laboratorios Farmacéuticos (Amelaf), quien se ha manifestado en contra de que el país suscriba este acuerdo por considerar que impactará de forma negativa en el acceso a medicamentos.
Al igual que con ACTA, el capítulo de propiedad intelectual de TPP -o lo que sabemos de él hasta ahora- está diseñado para proteger las patentes de medicamentos. Actualmente, en México un medicamento está bajo exclusividad durante un periodo de 20 años; dicho lapso comprende desde que se hace el registro hasta que se comercializa el producto. En promedio, un laboratorio tarda 10 años en desarrollar un medicamento para esté listo para venta, lo que lo deja con otros 10 años para obtener ganancias sin competidores.
De acuerdo con Ricardo Romay, presidente de la Amelaf, TPP buscaría extender la patente unos cinco años más, dotándole de 25 años de protección. Sin embargo, Romay señala que 10 años son más que suficientes para tener ingresos que permitan a los laboratorios financiar sus investigaciones. La presión para aumentar el tiempo de patente viene de los laboratorios grandes de Estados Unidos, quienes claman que el desarrollo de producto dura 15 años, por lo que sólo tienen cinco para venta exclusiva.
Cuando una patente se vence, lo que ocurre es que otros laboratorios pueden usar la fórmula para producir sus propias versiones. Lo que se busca a través de TPP es extender el tiempo que se comercializa sin necesidad de competencia. El problema es que este modelo evita que haya disponibilidad de medicinas genéricas, las cuales son utilizadas incluso por el sector de salud pública. En México, el Instituto Mexicano de Seguro Social (IMSS) está obligado por decreto a preferir medicamentos genéricos a los de patente.
Resulta sorprendente que sea la misma industria farmacéutica la que fije su postura contra TPP. Esto también es lógico en un mercado de competencia, donde los laboratorios mexicanos verían disminuidas sus posibilidades ante la extensión de patentes de las empresas de EE.UU. La Amelaf expresará sus preocupaciones a la Secretaría de Economía, encargada de las negociaciones del país para ingresar al acuerdo.
Es importante recordar que TPP es un acuerdo comercial agresivo que no se debe reducir a un tema de copyright y descargas; es un atentado contra los derechos fundamentales. Hace una semana, Amnistía Internacional advirtió que el contenido del acuerdo violentaba el derecho a la libertad de expresión y el acceso a la salud. Queda un mes antes de que México ingrese a la ronda de negociaciones de un documento opaco y ventajoso para los intereses particulares. El tiempo apremia.

10 alternativas libres más populares que superan al software privativo


somoslibres.org / lainformacion.com


El software libre permite copiar, modificar y compartir el programa sin límites. Esta filosofía ha conseguido que millones de personas dediquen sus esfuerzos a crear programas que satisfagan las necesidades de los usuarios sin que estos tengan que recurrir al pirateo o al pago de carísimas licencias por su uso.

Conoce diez alternativas libres y gratuitas a los programas informáticos más populares. 

Libre Office, alternativa a Microsoft Office. El uso de un procesador de textos, un programa para hacer presentaciones u hojas de cálculo es imprescindible tanto en el ámbito doméstico como laboral. 

La mayoría de opciones privativas tienen limitaciones en su uso dependiendo del tipo de licencia que tengamos que pagar. Libre Office ofrece una potentesuite ofimática con todas las herramientas que necesitamos sin ninguna restricción. 

Gimp, alternativa a Photoshop. La afición por la fotografía es cada vez más común y eso se refleja en el mundo de la informática. Photoshop es uno de los programas más populares para retocar imágenes, pero requiere el pago de una licencia bastante cara para el usuario doméstico, que muchas veces recurre a copias piratas para poder usarlo. Gimp es un programa de edición de imágenes que cubre el 100% de las necesidades de los usuarios corrientes y el 90% de las profesionales. Tiene cantidad de opciones y configuraciones, y su funcionamiento es muy similar al programa de Adobe. 

Firefox, alternativa a Explorer y Safari. Lejos queda ya el dominio de Internet Exporer en el ámbito de los navegadores web. Safari sigue siendo popular en los Mac, pero está claro que las alternativas de código abierto como Firefox o Chrome han ganado mucha cuota de mercado en los últimos años. Firefox es software libre y se ha convertido en uno de los navegadores más usados. 

VLC, alternativa a Windows Media Player y Quicktime. Si hay un reproductor multimedia todoterreno ese es VLC. Este programa se ha consolidado como uno de los más ligeros, rápidos y capaces, ya que puede leer casi cualquier formato sin necesidad de añadidos extra. 

Hotot, alternativa a TweetDeck. A menudo es más sencillo gestionar nuestros 'tuits' desde un cliente de Twitter como TweetDeck. Nuestra alternativa libre se llama Hotot, un cliente multiplataforma (se puede usar en GNU/Linux, Windows y Mac) que dispone de múltiples opciones, una interfaz muy cómoda y una ligereza asombrosa. 

7-Zip, alternativa a WinRAR. WinRAR sucedió a WinZip como uno de las aplicaciones decompresión de archivos más populares. 7-Zip sin embargo se presenta como una gran alternativa para los usuarios de Windows. Es compatible con los mismos formatos que WinRAR, pero libre y gratuito. Existe una versión llamada P7zip que también funciona en Mac y GNU/Linux. 

Songbird, alternativa a iTunes. Hay muchos programas para reproducir nuestra música, pero Songbird es uno de los mejores. Su interfaz es similar a iTunes y cuenta con varias herramientas para reproducir audio y vídeo, además de poder organizar nuestras listas de reproducción. 

Thunderbird, alternativa a Outlook. Mozilla, la misma empresa que desarrolla el navegador Firefox, nos ofrece una alternativa muy sólida al clásico Outlook de Microsoft, elgestor de correo electrónico más conocido. Tiene prácticamente las mismas herramientas y opciones, pero este es más flexible y se pueden usar complementos para mejorar sus capacidades. 

Jitsi, alternativa a Skype. Pese a que Skype sigue siendo el rey en cuanto a llamadas y videoconferencias por IP, existen alternativas libres muy competentes como Jitsi. Con una interfaz muy sencilla y práctica, Jitsi nos permite manetener conversaciones con y sin vídeo además de chat con nuestros contactos. Y es multiplataforma. 

SparkleShare, alternativa a Dropbox. Almacenar y compartir archivos en la Red se ha vuelto mucho más sencillo con los servicios en la nube. Dropbox es una buena opción, pero su capacidad es limitada y funciona bajo las condiciones de la empresa que lo desarrolla, lo que puede acarrear problemas de privacidad con datos y archivos personales. Sparkle Share es una de las mejores alternativas libres. La única diferencia es que son los usuarios los que deben disponer del servidor o el equipo para almacenar los archivos, a los que luego se accederá remotamente y desde cualquier lugar como Dropbox. Hacerlo de esta manera aumenta la seguridad de nuestros contenidos y no quedan a merced de los caprichos de las empresas. 

Todos estos programas se pueden descargar de manera gratuita y legal desde sus páginas oficiales. El software libre provee alternativas de calidad para la mayoría de las necesidades de los usuarios domésticos y gran parte de los profesionales. 

Este tipo de programas son generalmente más seguros (gracias al código abierto) y no necesitan licencias de uso. Además, dado que sus usuarios pueden compartirlos sin restricciones, suelen ser gratuitos, con lo que no hay niguna necesidad de optar por programas privativos 'pirateados'.

Más de un millón de libros, música y películas para descargar


alt1040


En un movimiento que podemos catalogar de histórico para el ecosistema BitTorrentThe Internet Archive ha comenzado una “migración” de más de un millón de archivos en torrent para descargar. Un inicio de lo que será a juicio de su fundador, Brewster Kahle, el principio del “acceso universal a todo el conocimiento”. La idea: convertir BitTorrent en un sistema de conservación distribuida de Internet.
Para aquellos que no lo sepan, Internet Archive es un sitio web y una organización sin ánimo de lucro que nació en 1996. Una colaboración entre multitud de páginas gracias a Alexa Internet. En su interior se encuentran una gran cantidad de archivos misceláneos de audio, vídeo y texto, muchos de ellos de dominio público o con licencias a base de Creative Commons para su distribución.
Una apuesta de conservación por la historia en la red que incluye secciones con las que “volver en el tiempo”. Para que nos hagamos una idea, hay más de 40 millones de páginas grabadas desde 1996, en los inicios del actual Internet. Todo bajo la declaración de sus inicios, proporcionar el acceso universal a todo el conocimiento.
Quizá por esta razón se haya decidido a dar este paso. BitTorrent es probablemente la manera más rápida de compartir archivos con grandes grupos de personas en la red.
Desde hace unas horas el sitio ha lanzado más de un millón de sus archivos usando el protocolo de intercambio de archivos. Una recopilación de películas, textos y libros con los que se inicia un nuevo capítulo en la historia de la organización. A la vez se anuncia que todos los archivos nuevos que se suban también estarán disponibles a través de BitTorrent.
Según Brewster Kahle, fundador del sitio:
Espero que la noticia sea recibida con entusiasmo por la comunidad de BitTorrent, ya que amamos lo que han construido y estamos muy contentos de poder poblar el universo BitTorrent con materiales de la biblioteca y nuestros archivos.
Desde hoy hay una gran oportunidad de simbiosis entre el mundo de las Bibliotecas y los grandes archivos en el mundo y la comunidad BitTorrent.
En estos momentos son alrededor de 1.398.875 torrents a los que se les están sumando cientos de más archivos cada hora. ¿Por qué? Kahle ofrece la respuesta a Torrent Freak:
BitTorrent es ahora la manera más rápida para descargar nuestro material ya que las descargas en los clientes de BitTorrent de forma simultánea son la manera más eficaz de que llegue a todo el mundo.
No sólo eso, según el propio fundador, la idea es que BitTorrent no se limite a proporcionar un enlace de descarga, sino que se está trabajando para convertirlo en un mecanismo de almacenamiento:
El siguiente paso es hacer del BitTorrent un sistema distribuido de conservación del contenido como el nuestro. Creemos que va a ser impresionante y probablemente, muy importante.
Aire fresco para un sistema perseguido por las sociedades de autores e industria del entretenimiento que ve como podría pasar a convertirse en una nueva forma de acceso al conocimiento a través de The Internet Archive.
Fuente: http://alt1040.com/2012/08/the-internet-archive-migra-a-bittorrent

El acceso abierto como solución a los problemas de difusión internacional del conocimiento


campusmilenio.com.mx

El pasado 24 de abril se publicó en el diario británico The Guardian un reportaje de la autoría de Ian Sample, corresponsal en temas científicos del periódico, titulado “Harvard University says it can´t afford Journal publishers´prices”. La nota se basa en el contenido de un memorando oficial enviado por la Biblioteca de Harvard a los más de dos mil académicos que forman parte de la planta de investigación y docencia de esa institución conminándolos a publicar sus resultados de investigación en revistas académicas de acceso abierto, es decir aquellas que permiten la consulta de textos completos, a través de Internet, sin pago por suscripciones u otros derechos.
Esta información ha contribuido a renovar en el ámbito académico anglosajón el debate acerca del acceso público a productos académicos que se generan, parcial o completamente, por medio de subsidios públicos a la investigación, pues resulta que en buena medida la investigación universitaria es apoyada por la vía fiscal, pero la difusión de resultados ocurre en mercados privados, en particular mediante la edición de revistas académicas comercializadas individualmente o a través de editores corporativos.
Según el memorando de Harvard, la biblioteca institucional eroga más de 3.5 millones de dólares por año solamente en materia de suscripciones a revistas científicas y académicas. Lo más preocupante, se añade, es que dicho costo es creciente si se toma en cuenta que en los últimos seis años el precio de las suscripciones ha aumentado casi ciento cincuenta por ciento en total. Como tendencia, señala la biblioteca, esta situación es insostenible a mediano plazo.
En ese sentido, el llamado a que los académicos de la universidad bostoniana publiquen en revistas de acceso abierto se propone como una acción de protesta y presión en contra de los grandes corporativos académicos editoriales. Dentro de ese mercado se ha fortalecido una tendencia hacia la concentración oligopólica. Solamente el gigante Elsevier (Holanda) concentra, al día de hoy, más de un cuarta parte de la distribución internacional de revistas científicas, además de contar con el servicio de sistematización bibliométrica denominado SCOPUS que es utilizado por varios rankings para comparar y clasificar el desempeño de universidades en el plano internacional.
Al tratarse de la Universidad de Harvard, sin duda una de las instituciones más reconocidas en el mundo por la cantidad y calidad de sus contribuciones académicas, su respaldo al movimiento a favor del acceso abierto e ilimitado al contenido de las publicaciones científicas asume una relevancia muy particular. Implica, cuando menos, el reconocimiento a un dilema entre el costo creciente de las publicaciones académicas comercializadas frente a las presiones para que los académicos divulguen sus resultados en circuitos internacionales. Como los grandes corporativos editoriales han logrado predominio en la distribución internacional de revistas científicas, entonces los académicos se ven obligados a participar en este circuito entregando, a querer y no, los frutos de su trabajo al sector privado.
Como, además, el reconocimiento al impacto internacional de la producción científica proviene de la presencia de los artículos y otros productos en las bases bibliométricas que forman parte del mismo conglomerado editorial –principalmente Elsevier y Thomson Reuters-, se está desarrollando un círculo perverso que sólo beneficia, al final del día, a los intereses editoriales comerciales. En este sentido resulta dramático constatar que una porción muy significativa de la producción académica local, por ejemplo la de las universidades de países en desarrollo, busca como primer destino el circuito internacional de revistas arbitradas, lo que da como resultado una forma de exportación gratuita y no regulada de conocimientos de primer nivel.
La apuesta a favor del acceso abierto, si bien no resuelve de un plumazo la traba entre todos los elementos puestos en juego, abre un panorama muy interesente: la posibilidad de multiplicar en forma significativa la difusión y el uso público del conocimiento científico. Desde luego falta por resolver temas tales como el financiamiento de las revistas de acceso abierto, las reglas de control académico requeridas, así como los sistemas de indexación que deben complementar esta vía de desarrollo.
El desafío más importante, sin embargo, está en el medio de las comunidades académicas universitarias, es decir el proceso de legitimación de las publicaciones de acceso abierto como medios válidos para la circulación internacional del conocimiento. El día en que la reputación de las revistas “open access” sea cuando menos equivalente al de las publicaciones periódicas convencionales, gran parte de la batalla estará ganada.
Por todo ello, vale la pena insistir en la importancia de que las universidades públicas en nuestro contexto se abran a discusiones de este orden, que ya no son debates marginales sino, como lo ilustra el caso que hemos comentado, reflexiones que ocurren en entornos institucionales del mayor reconocimiento.
Roberto Rodríguez GómezUNAM. Instituto de Investigaciones Sociales

Libre acceso ciudadano al conocimiento científico


bcn.cl

Casi diez años después del inicio del Open Access, en el 2012, la comunidad científica ha logrado el apoyo público para abrir sus investigaciones a todos. Inglaterra en particular, y ahora la Unión Europea, han decidido que los estudios científicos financiados con fondos públicos deben ser de libre acceso a la ciudadanía, cambiando así las reglas que hasta ahora imponen las casas editoriales. 

Acceso Libre
Antes de la masificación de Internet, e incluso hasta hoy, para que los lectores pudieran acceder a algunos artículos científicos era necesario pagar una suscripción a una revista especializada. A su vez, los investigadores interesados en masificar su conocimiento deben pagar a las revistas o casas editoriales para que el material salga publicado.

Este es el modelo de negocios tradicional que ha fundamentado el prestigio tanto de las revistas científicas como de los estudios que en ella se consignan. Dicha reputación se fundamenta también en que las casas editoriales aportan un valor agregado, garantizando que los artículos que se difunden en cada edición han sido revisados por especialistas en la temática del estudio en cuestión y no están relacionados con el autor (no tienen conflicto de intereses), a través del sistema de "revisión por pares" o "peer review".

Pues bien, con la llegada de Internet este modelo ha cambiando, generándose una nueva tendencia denominada acceso libre (Open Access, OA). De acuerdo a ésta, el soporte tradicional (el artículo en papel pagado, o la versión electrónica pagada) da paso a las publicaciones electrónicas gratuitas.

Así los usuarios (lectores) pueden acceder al conocimiento sin tener que pagar por ello ni tener que entregar información personal (registrarse). Este modelo implica que los usuarios no tan sólo pueden consultar los artículos, sino también están facultados para descargarlos, copiarlos, imprimirlos, distribuirlos, por supuesto haciendo respetar los derechos de autor.

El acceso libre opera de dos formas:

• Acceso abierto vía dorada: las editoriales (revistas electrónicas) ponen los artículos a libre disposición. Esto porque las revistas están totalmente bajo la modalidad OA o porque los autores de las investigaciones o las instituciones que las financian, pagan a la revista para que los artículos estén abiertos.
En este caso, es la editorial la que toma la decisión de cuándo publicar el material. De manera mayoritaria, las revistas mantienen los derechos de publicación, es decir, los autores cargan las versiones previas o finales de sus investigaciones, pero las editoriales deciden cuándo publicarlas.
• Acceso abierto vía verde: los autores son responsables de poner sus artículos, en forma voluntaria, en un repositorio público. Asimismo, publican abiertamente en Internet sus artículos en una revista electrónica científica que suele ser abierta. Normalmente son los autores los que pagan a la revista para que dichos textos sean públicos.

Un prejuicio que existe hasta hoy, aún cuando las revistas científicas de OA aparecieron a principios de 1990, es que aquellas publicaciones más prestigiosas tienen un acceso relativamente abierto, es decir, se puede acceder al resumen de su contenido pero para leer el estudio completo es necesario suscribirse pagando.

Al respecto, se han desarrollado investigaciones que indican que en un primer momento la calidad de los artículos estaba influida por su acceso. No obstante, hoy esta diferencia se ha ido minimizando, lo que se ha comprobado, principalmente, por el uso que se da este material: hoy, tanto los estudios de OA como los que se adquieren por suscripción, son citados con similar regularidad , e incluso, los organismos que financian el trabajo de los investigadores han comenzado a exigir como condición que el resultado de estos trabajos sea publicado libremente.
Haciendo un poco de historia, la desconfianza fue la tónica de la década de los 90 cuando sólo las publicaciones relacionadas con Internet se atrevían a difundir sus contenidos por OA. Luego las investigaciones científicas, principalmente las relacionadas con el mundo de la medicina se atrevieron a dar el paso, lo que logró consolidarse con la entrada de BMS Group; y en Chile, con Scielo que recopila las investigaciones científicas nacionales, principalmente médicas. BioMedCentral y Public Library of Science (PLoS ) hoy encabezan los repositorios de OA vía verde.

Actualmente, las revistas bajo OA son tan valoradas como sus antecesoras. Aun más, luego que comenzara a consolidarse un nuevo modelo de negocios distinto al tradicional basado en la cancelación de suscripciones. Hoy, el pago de parte de los autores a las casas editoriales es la principal forma de financiamiento. Las tarifas varían de acuerdo al tipo de revista o repositorio, según sea la vía que se elija, pero sólo para tener una referencia, en Estados Unidos en el 2010, se cobraba entre dos y tres mil dólares por publicación, con un promedio unos 900 dólares.


Financiamiento público
Uno de los grandes temas de la divulgación científica ha sido la participación que tienen los entes públicos en su financiamiento. En este contexto surge la pregunta ¿por qué una casa editorial puede beneficiarse de una investigación que ha contado con fondos públicos para su realización? De allí surge la idea de posicionar el OA como única plataforma.

Caso británico
En Inglaterra, se ha generado un movimiento en pro del OA. Un estudio de la Universidad de Manchester recomendó que las investigaciones financiadas por el Estado debieran estar a disposición de todos. Esto, luego que se analizara en profundidad el negocio de las suscripciones de revistas científicas y su contraparte abierta, contraponiendo los costos y beneficios de ambos modelos.

A partir de ello, el gobierno británico estableció que dentro de dos años todos los estudios científicos que hayan sido financiados con dineros públicos deberán ser de acceso gratuito.
La propuesta establece que las universidades sigan pagando a las revistas especializadas por publicar los artículos de sus investigadores, pero que éstas no podrán obligar al público a cancelar por acceder a la lectura de estos textos.

Actualmente las universidades –principales emisores de conocimiento científico- desembolsan unos 255 millones de euros por año en divulgación.

Frente a ello, el Estado ha decidido cancelar unos 64 millones anuales de euros –provenientes del presupuesto destinado a ciencia- a las casas editoriales que funcionan bajo los estándares tradicionales (suscripciones pagadas) que deberán derivar al sistema OA. Así, las revistas científicas publicarán los artículos en sus páginas automáticamente, y podrán solicitar al Gobierno un reembolso por los gastos que significó dicha publicación (vía dorada).

Este enfoque ha sido apoyado mayoritariamente por la comunidad científica, sin embargo, se ha criticado que el mundo pueda acceder gratis a los artículos pagados por los contribuyentes británicos (que aportan con el financiamiento público) pero estos deberán seguir desembolsando para leer investigación de otros países.

Caso Unión Europea
Siguiendo a Inglaterra, la Comisión Europea ha anunciado que los estudios científicos financiados con fondos públicos de la Unión Europea (UE) deberán ser de libre acceso a partir del 2014.

Asimismo, esta instancia recomendó a los países miembros hacer lo propio, tal como lo está planteando Inglaterra. El objetivo es que al 2016 al menos un 60% de los estudios pagados con fondos públicos europeos sean OA.

La citada comisión informó el 17 de julio de 2012 que las investigaciones que sean canceladas entre el 2014 y el 2020 dentro del programa Horizonte 2020 (fondo para la investigación científica), deberán pasar al sistema OA. Este fondo dedica unos 80 mil millones de euros a investigación y desarrollo.

La idea es que se abran los artículos por la vía verde, de manera de obligar a los investigadores a enviar sus artículos a un repositorio público en un plazo máximo de 6 meses. La excepción serán los estudios relacionados con las ciencias sociales que tendrán que remitir la información, a más tardar en 12 meses.

De seguro esta tendencia europea se replicará en otros continentes. Esto porque la penetración de Internet y la tendencia a masificar la información es una camino sin retorno en un mundo globalizado.

Fuente: http://www.bcn.cl/ciencia-e-innovacion/libre-acceso-conocimiento-cientifico

APUNTES PARA UN MODELO DE CRECIMIENTO SUSTENTADO EN UNA ECONOMÍA DEL CONOCIMIENTO


ºWilliam Zavaleta

“La Inversión en Capital Intelectual genera crecimiento económico”

Consideraciones


Inversión e impulso a la Educación para la Innovación,  el desarrollo de habilidades blandas y valores, por parte del Estado


Inversión estatal y privada  en infraestructura tecnológica y comunicaciones


Impulso preferencial a la producción, consumo interno y exportación de bienes intangibles (bienes físicos con alto valor agregado y servicios)


Incremento de remuneraciones, en general de ingresos, de profesionales y técnicos.


Generación de empleo preferentemente en el sector de servicios


Participación del Creador  y/o del Estado en la propiedad del conocimiento


Implementación de Herramientas de Capital Intelectual: Derechos de Transferencia Laboral, Medición del capital Intelectual, Informe de Capital Intelectual, etc.


Participación del Estado en la propiedad de empresas estratégicas.


Captación de recursos de sectores primarios para su reinversión en la economía del conocimiento

Soporte


La presente Propuesta de Modelo  se soporta en estudios de investigación a nivel latinoamericano, que sustentan una relación directa entre inversión en educación en ingeniería y ciencias y crecimiento de la economía.


Estudios de medición del capital intelectual


Innovación Derechos de Transferencia Laboral

Alcances


La Propuesta de Modelo se inscribe en una mayor, que busca alcanzar el Desarrollo sustentado en una economía del conocimiento, desde una perspectiva colectiva.


Una economía del conocimiento considera como elementos centrales no exclusivos a los siguientes: factor de producción al capital intelectual, sujetos productivos a técnicos y profesionales,  producción de bienes intangibles.


La inversión en capital intelectual orienta la inversión en capital humano y capital estructural al logro de niveles de eficiencia en la utilización de los mismos en la creación de valor para la economía.

° El Autor es Magíster en Gestión y Desarrollo e Ingeniero Ambiental. Docente en el  Antegrado de la Facultad de Ingeniería Económica y el Posgrado de la Facultad de Ingeniería Ambiental de la Universidad Nacional de Ingeniería. Investigador y Consultor en Economía y Gestión del Conocimiento. Director del Departamento de Economía del Conocimiento de la Academia Latinoamericana de Políticas Públicas





Licencia Creative Commons
APUNTES PARA UN MODELO DE CRECIMIENTO SUSTENTADO EN UNA  ECONOMÍA DEL CONOCIMIENTO por William Fernando Zavaleta Huaccha se encuentra bajo una Licencia Creative Commons Atribución 3.0 Unported.

"El Copyleft ha sido un gran soplo de aire fresco"


diagonalperiodico.net

El festivo grupo madrileño se ha propuesto que sean sus seguidores quienes financien su tercer trabajo a través del crowdfunding. Ellos mismos nos lo cuentan.
- Proyecto para el tercer disco de Los Sundayers en goteo.org
DIAGONAL: Tras vuestra última experiencia autogestionada ¿Cómo surge dar el paso de intentar conseguir el dinero antes de grabar un disco? ¿Se están hartando los grupos de palmar pasta?
LOS SUNDAYERS: El disco anterior lo financiamos, principalmente, gracias al dinero que conseguimos al ganar un concurso, el Festivaca Araval. Esta vez no teníamos ninguna fuente de ingresos que nos permitiera grabar por nuestra cuenta y riesgo, así que evaluamos las opciones que teníamos. Lo que teníamos claro es que no queríamos ningún tipo de intermediario ni padrino que nos financiara imponiéndonos condiciones de ningún tipo, por lo que el crowdfunding en realidad apareció como la solución natural. Además, al ser un grupo completamente autogestionado, nos pareció una forma de financiación muy interesante: entrar en contacto directo con la gente que disfruta de nuestra música, ir enseñando nuestro trabajo a lo largo de la campaña, hacer un uso intensivo de nuestras redes sociales... todo ello encaja muy bien con la forma que tenemos de ver la música, así que nos lanzamos a ello.
D.: Pese a que cada vez se venden menos discos, o eso dicen, parece que el concepto de disco, como colección de canciones, aún no se ha perdido. ¿lo veis peligrar?
L.S. La verdad es que no es un tema que nos preocupe demasiado. Es cierto que es bonito tener un disco en las manos, con su carátula, sus letras y que puedas añadir a tu colección. Pero si desaparece será porque aparezca un nuevo formato más práctico e interesante, así que, en ese sentido, bienvenido sea. Hay quien se queja de que con Spotify o YouTube ya nadie escucha los discos enteros, sino sólo canciones sueltas. Pero viendo las cosas con un poco de perspectiva, todos nos hacíamos cintas con nuestras canciones favoritas. Y, sin embargo, nuestros discos favoritos los teníamos desgastados de tanto escucharlos una y otra vez. Así que, ¿por qué tendría que ser distinto con las nuevas herramientas? En realidad lo único que hacen es facilitar que cada cual haga lo que más le apetezca, que es de lo que se trata. No es que tengamos una obsesión con las nuevas tecnologías y descartemos todos los demás formatos. De hecho, nosotros seguimos publicando los discos en formato CD. Pero tampoco somos nostálgicos que disfruten del formato por el formato. Lo importante es el contenido.
D.: ¿Cómo estáis desarrollando la campaña y qué tal va?
L.S. Pues no va nada mal. Estamos en la recta final de la campaña y ya hemos recaudado más del 80% del dinero. Pero éste último tramo va a ser mucho más complicado, porque la mayoría de la gente cercana a nosotros ya ha colaborado, y ahora tenemos que seguir buscando formas divertidas y atractivas de atraer nuevos coproductores que no nos venían siguiendo tan de cerca.
D.: ¿Os aporta algo más que dinero esta experiencia de microfinanciación?
L.S. Desde luego. La experiencia de tener que ofrecer algo nuevo casi cada día para seguir manteniendo la atención de la gente es agotadora, pero muy estimulante. Estamos viendo todos los días que es posible salir adelante con nuestra forma de ver las cosas. Y ver que la gente responde de manera tan positiva es algo increíble.
D.: Vuestro estilo musical (mezcla de ska, funk, swing...) ha tenido mejores y peores momentos en Madrid ¿cómo lo veis en la actualidad?
L.S. Nuestro estilo suele caer bastante bien en casi cualquier ambiente, así que en ese sentido hemos tenido suerte. Sí que es cierto que en ciertos momentos hubo bastante saturación de grupos que hacíamos básicamente el mismo estilo, con lo que se hizo algo más complicado encontrar dónde tocar. Pero, como hemos dicho respecto al crowdfunding, que haya muchos grupos no es algo malo de por sí. Cuantos más gente haya tocando, la probabilidad de escuchar buena música es mayor, así que estupendo.
D.: Desde el principio habéis apostado por el Creative Commons, entiendo que como opción política, ¿cual es vuestra visión sobre la autoría, la propiedad y los derechos de las canciones?
L.S. Para nosotros publicar con Creative Commons siempre ha tenido una gran importancia. Llevamos mucho tiempo lamentándonos de los abusos de la industria discográfica, y el copyleft ha sido un gran soplo de aire fresco. El problema muchas veces viene del doble lenguaje que se ha venido usando desde la industria y las sociedades de autores, que dicen defender los derechos de los autores cuando en realidad no es así. Nosotros usamos una licencia que nos permite negarnos a que se use nuestra música para fines con los que no estamos de acuerdo (publicidad de marcas comerciales, por poner un ejemplo). Con el modelo tradicional ese derecho, en la práctica, no existe. Quien decide cómo y para qué se va a usar una canción es la editorial, no el autor. Y quien se va a llevar la mayor parte del dinero, también. ¿Con qué cara se le puede llamar "defender los derechos de los autores" a eso?
Por supuesto que defendemos la autoría de las canciones. Pero el hecho de reconocer que Money es de Pink Floyd no tiene nada que ver con que yo pueda o no pueda copiármela en mi reproductor o versionarla con mi grupo. Esa asociación de ideas de "alguien ha creado esta canción y tiene derecho a cobrar por ello" es muy tramposa. Claro que tiene derecho a cobrar por ello (si quiere). Tiene derecho a cobrar cada vez que venda un disco. Tiene derecho a cobrar una entrada cuando toque en directo. Tiene derecho a cobrar cuando alguien va a sacar un beneficio económico gracias a su música. Todo eso está muy bien, pero pretender que todo el que oiga su música pase por caja no son derechos de autor, es un abuso.
SOBRE EL USO ¿Y EL ABUSO? DE LOS MICROMECENAZGOS"Todo lo negativo que pueda ser que cada vez haya más grupos que pretendan publicar su trabajo sin depender del visto bueno de un sello. No nos planteamos si somos demasiados grupos recurriendo al crowdfunding igual que no nos planteamos si hay demasiados grupos tocando en directo. Es una cuestión de creer en lo que estamos haciendo, y de esperar alcanzar nuestro objetivo gracias a un trabajo bien hecho, no porque no haya más donde elegir. Nos encantaría que hubiera una comunidad de crowdfunding muchísimo mayor".

El software libre y la educación


ramonramon.org


Simple, conciso, con ejemplos y explicaciones sencillas, 10 minutos de razones entendibles por todos.
Especialmente dedicado a los responsables del Ministerio de Educación de Paraguay y España:
Vídeo El Software Libre y la educación 
Entre otras, traslada afirmaciones o reflexiones tan sensatas como:
1.- Con las limitaciones económicas que tienen las escuelas, no deben desperdiciar sus escasos recursos pagando permiso de usar software privativo, razón superficial y obvia.
2.- Algunas empresas suelen eliminar esta primera razón regalando copias gratuitas o casi gratuitas a las escuelas, y así aprovecharse de las escuelas, usándolas como instrumentos, para imponer a la sociedad entera una dependencia a sus productos privativos.
Plan simple y sencillo: Empresa regala copias del software a las escuelas, las escuelas forman a los alumnos, quienes desarrollan una dependencia al programa privativo, y tras graduarse el alumno, ya no dispone de copias gratuitas. Las escuelas apoyan esta dependencia, es como si regalaran ampollas de drogas adictivas a sus alumnos para que éstos desarrollen una dependencia. Es lo que todos conocemos desde chicos, la estrategia que todos conocemos de la primera dosis es siempre gratuita.
Yo añadiría que, las empresas desarrolladoras de software privativo se nutren y pervierten el sistema educativo, pues regalan copias de su software que para ellas ya no tiene coste alguno o es ínfimo, logran que las escuelas públicas y privadas, formen a usuarios y dependientes de sus aplicaciones, por lo tanto a consumidores cautivos, sin necesidad de invertir. Es decir, son las propias escuelas las que hacen toda la labor de marketing, comercial, captación, selección, capacitación,… evitándole todos esos gastos a la empresa. ¡PLAN REDONDO!
Enseñar las dependencias a sus alumnos no es éticono cumple con la misión social de la escuela, que es educar a la próxima generación como buenos ciudadanos de una sociedad capaz, fuerte, independiente, solidaria y libre, y esto solo se puede hacer enseñando el software libre, el software que no impone dependencia
3.- Hay programadores natos, que con 10 años, ya quieren conocer como funcionan los programas y cuando le preguntan a su profesor (con software privativo), éste solo puede responderle: “no lo sé, es secreto”. El software privativo es el enemigo del espíritu de la educación.
Pero si el programa es libre nuestro profesor puede explicárselo cuanto sepa y luego ofrecerle una copia del código fuente, diciéndole léelo y lo comprenderás todo. Y si encuentras algún punto que no entiendas, muéstramelo y así aprenderemos juntos.
4.- Para la educación moral, la educación en la ciudadanía, cada escuela debe enseñar no solo hechos y métodos, sino sobre todo el espíritu de buena voluntad, el hábito de ayudar a tu prójimo, por lo tanto cada clase debe tener esta regla: Alumno si traes un programa a clase, no puedes guardarlo para tí, debes compartirlo con el resto de la clase y debes traer también el código fuente para que todos puedan aprender como funciona. La escuela además debe compartir el software en la escuela con los alumnos, es decir, no puedes traer código privativo a la clase, porque no es ético y es el enemigo del espíritu de la educación.
Como verás, no debes perderte este vídeo de 10 minutos que debería ser de obligado visionado por todos nuestros responsables políticos, especialmente los relacionados con la educación.