segunda-feira, 26 de novembro de 2012

Acapor, wareztuga e conteúdos digitais. A emissão segue dentro de momentos.



Este assunto é recorrente, mas passam-se os anos e as coisas tardam a mudar. Aqui fica uma nova reflexão sobre um problema que se recusa a morrer.

 Os clientes de conteúdos digitais

Designe-se por N a dimensão do universo de potenciais interessados em ver filmes, séries ou outros conteúdos via Internet.

Desses N consideremos a seguinte distribuição
  • X x N pessoas indisponíveis para pagar seja o que for
  • Y x N pessoas disponíveis para pagar valores que considerem razoáveis se o serviço corresponder às expectativas... ou a piratear, caso contrário
  • Z x N pessoas que pagarão o preço que for necessário por serem intransigentemente contra a pirataria ou tecnicamente incapazes de se esquivar de popups. 
  • W x N pessoas que ainda não decidiram em qual dos grupos acima se integram pois consomem conteúdos de outras formas (cinema, DVDs, VHS, etc)
X,Y ,Z e W são fracções do universo N, ou seja, X+Y+Z+W = 1.

 O peso de cada classe

O que podemos afirmar sobre cada uma das fracções?

O valor Z é practicamente nulo. Este facto pode verificar-se empiricamente pela destreza com que gente tecnicamente inapta consegue utilizar websites diversos para satisfazer a sua vontade de ver conteúdos online. Simultaneamente, pessoas insensíveis ao factor preço são muito difíceis de encontrar tanto pelo mindset que nos é próprio como pela conjuntura económica de que não sairemos em breve.

O valor X tem provavelmente um limite mínimo, abaixo do qual será impossível descer. Haverá sempre uma franja de sociedade constituída por gente espertalhona e com tempo livre que conseguirá encontrar forma de não pagar por determinados bens ou serviços. Isto, por muito que a forma de não pagar seja demorada e trabalhosa e mesmo que a sua situação financeira não justifique.

Sobram portanto dois grupos que designaremos pela letra que representa a sua dimensão, respectivamente Y e W. Quem quisesse fazer negócio com conteúdos digitais deveria aspirar a esvaziar W e encher Y o mais rapidamente possível, antes que X ganhasse massa crítica.

De facto, o que tem acontecido é que o grupo W vai tendendo para zero com o progresso da tecnologia, tendo esse processo começado com a vulgarização da Internet de banda larga. Quem sai desse grupo ingressa naturalmente no grupo Y, que é o grupo dos potenciais clientes de serviços com conteúdos legais.

 A situação que não melhora

Mas a inadequação da oferta existente reencaminha a quase totalidade dessas pessoas para o grupo X. Ou seja, a maioria dos potenciais clientes deixa rapidamente de o ser.

E o pior: a permanência no grupo X gera uma cultura que se vai consolidando ao longo dos anos.

O hábito de não pagar para aceder a determinados conteúdos resulta em que se veja o não pagamento como algo normal e que tal fique profundamente inscrito na forma de pensar dos indivíduos. De indivíduos honestos e pagadores de impostos, mas que acabam por não ver nisso grande mal. São os mesmos indivíduos que consolidam monopólios tecnológicos, porque a eles estão habituados.

Um comportamento recorrente é um hábito. Um hábito comum é um zeitgeist. Um zeitgeist é quase uma lei.

Ora, como se sabe a banda larga em Portugal começou a expandir-se rapidamente por volta do ano 2000. Sendo assim, já vamos com 12 anos de consolidação desta cultura. E actualmente já há quem ingresse directamente no grupo X sem sequer saber o que é o W, como é o caso dos cidadãos adolescentes que já se começam a esquecer do que é um DVD. E provavelmente mais do que o valor de X importa o dX / dt ....

O comando é meu

É verdade que nos últimos anos começaram a aparecer ofertas de serviços de video on demand agregados a ofertas de Internet. Mas, tanto quanto sabemos, todos esses serviços obrigam a um custo fixo mensal, fidelização e a uma box do fornecedor. Ou seja, não funcionam nos PCs que hoje em dia são utilizados para consumo de conteúdos e obrigam a um compromisso que não agrada a toda a gente. Nem mesmo com lavagens ao cérebro dadas pelos mais importantes ex-comediantes nacionais.

Também é verdade que tem havido iniciativas de neutralização dos sites que agregam conteúdos ilegais. Mas até agora os resultados são inconclusivos pois porque cada site que fecha há outro que abre e os conteúdos continuam disponíveis.

É caso para se dizer que nem o pau magoa nem a cenoura interessa... pelo menos a todos.


As conclusões 

A primeira conclusão é de ordem sociológica:

As mudanças culturais na direcção do maior conforto imediato  são espontâneas e muito rápidas, mas a sua reversão é sempre muito lenta e trabalhosa, senão impossível. E quanto mais tempo passar maior a dificuldade.

A conjectura acima enunciada aplica-se com grande generalidade. Desde o acesso a conteúdos digitais sem necessidade de pagamento, ao acesso a tecnologia sem necessidade de aprendizagem, ao acesso a bens sem necessidade de poupança, ... Se a adopção de comportamentos no sentido dos exemplos acima se faz com naturalidade uma vez disponíveis tais hipóteses, a respectiva reversão de comportamentos necessitaria de um mix muito forte de doutrinação, incentivo e tempo. A disciplina requer educação e a educação requer esforço do educador e do educando. É uma espécie Lei da Entropia social.

Para o caso particular a que este post se refere a reversão da actual tendência só seria possível se existissem serviços online simples, completos, compatíveis e a preços razoáveis. Será que existem? Alguma pesquisa já feita e os 50 000 likes no facebook do Wareztuga.tv levam-me a pensar que não.

A segunda conclusão é igualmente de ordem sociológica:

As inibições culturais dos fornecedores de serviços tradicionalmente dominantes prevalecem sobre a disponibilidade tecnológica potencialmente geradora de novos serviços.
Significa isto o seguinte: quando a banda larga se começou a generalizar a indústria não estava preparada para oferecer serviços de streaming como está hoje. E quanto a isto não podemos culpar ninguém. As revoluções tecnológicas são muitas vezes rápidas e não totalmente organizadas. Seria deselegante e injusto atirar culpas para os momentos imediatamente posteriores ao advento da banda larga.

Mas passados estes anos seria igualmente injusto aceitar desculpas ou moralismos com teias de aranha. A tecnologia existe e funciona. Tanto existe que é usada pelos serviços alegadamente não legais. O que não funciona é a burocracia das negociações de direitos de autor.

Só isto explica que serviços como o da Amazon ou mesmo o idiótico Netflix (que só funciona em Silverlight) não estejam disponíveis em Portugal. Ou que um serviço potencialmente fantástico como o MUBI tenha uma oferta mainstream tão escassa devido a problemas de negociação de copyright.

O papel das associações

O papel das associações deve ser examinado com algum cuidado. 

Falou-se acima da reacção das sociedades a situações de maior conforto imediato. Ora, o somatório dos confortos imediatos não conduz necessariamente a um maior conforto de longo prazo.

Se a produção de conteúdos culturais for posta em causa, a sociedade como um todo poderá ficar a perder. Se o dinheiro não gasto em cultura for canalizado para outros mercados o saldo económico pode não ser positivo. Não há dúvidas que o problema existe e que há empregos em jogo.

Mas a solução para este problema não é a criminalização de quem disponibilizou uma oferta que funciona. E também não é a taxação indiscriminada dos media de suporte físico.

A ACAPOR e/ou outras associações ligadas ao audiovisual poderiam focar energias na criação de uma plataforma de video on demand para toda a Europa negociando agressivamente os direitos de emissão. Seria uma forma de Portugal exportar mão de obra. O futuro não passa pela nostalgia dos videoclubes de bairro. Passa por uma oferta que agrade a quem ainda está disponível para gastar dinheiro em conteúdos.

Ironicamente, a tecnologia de tantos websites que funcionam alegadamente na ilegalidade poderia ser posta a servir o público em geral. Sem publicidade, sem popups e a preço justo.

E cada minuto perdido sem nada ser feito é um minuto em que, por falta de alternativa, a partilha de conteúdos protegidos por direito de autor se banaliza. E nestas circunstâncias, alguém pode criticar?

sexta-feira, 16 de novembro de 2012

Normas Abertas e Regulamento de Interoperabilidade (RNID)

Há cerca de um ano atrás este blog publicou um post intitulado 2 Eventos e um Futuro, em que revia os contextos nacional e europeu no que respeita à adopção das Normas Abertas.

Uma das principais conclusões foi que a situação nacional tinha evoluído bastante deste os velhos tempos da farsa do OOXML, em que Portugal se deixou envergonhar mundialmente. Concluiu-se que, após o debate e aprovação de Lei das Normas Abertas (Lei 36/2011), a discussão tinha subido de nível e quem decidia estava muitíssimo bem informado. Foi também dito que quando alguém bem informado decide mal, a razão é certamente suspeita. E o que faltava decidir? A lista de normas abertas a incluir no Regulamento Nacional de Interoperabilidade Digital (RNID).

Os piores receios não se confirmaram. Aliás, nenhum receio se confirmou. Quem decidiu conseguiu resistir aos potenciais vectores de neutralização política da Lei 36/2011: o esquecimento e a diluição.

Houve demora, é certo, mas a publicação do RNID não ficou esquecida. E a diluição, que poderia ter sido introduzida quer por uma série de mecanismos fáceis de excepção quer pela multiplicidade de normas redundantes não compareceu.

Foi publicada uma lista de normas abertas que não é exaustiva mas é mais do que suficiente para as necessidades actuais. E houve a coragem de escolher para os documentos uma norma que não só é aberta como está implementada em diversos sistemas operativos por variadas aplicações open source e proprietárias, o ODF.

Este processo envolveu os mais diversos intervenientes da política e da sociedade civil. Desde os grupos parlamentares (os do PCP e BE foram os autores dos projectos-Lei), a associações interventivas na área das TI e personalidades ligadas ao meio académico até entidades como a AMA e o actual Governo.

Todos os responsáveis por este desfecho estão de parabéns. Num momento difícil para o país é um resultado muito animador. É um resultado que a médio prazo beneficiará toda a gente, mesmo aqueles que hoje em dia se opõem ou são indiferentes a este tema.

Agora virá a implementação e com ela muitos daqueles que defenderam a via das normas abertas serão chamados a estar à altura do que propuseram. Boa sorte a todos.


segunda-feira, 6 de agosto de 2012

Deuglifying KDE on Ubuntu 12.04 Precise

Growing and maintaining a consistent Linux distribution like Ubuntu up to date is a very serious job. Making money from it to support further developments is another one. Canonical chose GNOME at first and pushed Unity afterwards. They made a beautiful and well integrated desktop that is a pleasure to use. We are certainly thankful.

What if you like KDE? Oh well, we can't all be happy. Or can we?

The integration of KDE on Ubuntu (in fact even Kubuntu) is not exactly the most polished thing in the world (let's not mention the default wallpaper... :-) . But that can be fixed and once done doesn't seem that difficult.

The fix is made of two steps, on top of the default Ubuntu 12.04 installation:

1) Choose your KDE based applications. Remove redundant GNOME based applications
apt-get install kde-plasma-desktop khelpcenter4 kdeartwork kdeartwork-style plasma-desktopthemes-artwork kde-artwork-active kde-wallpapers kdewallpapers plasma-widgets-addons kde-l10n-pt ksnapshot gtk2-engines-oxygen gtk3-engines-oxygen libreoffice-kde kontact okular smplayer gwenview ark
apt-get remove totem empathy evince brasero evolution rhythmbox shotwell konqueror file-roller nautilus eog
This will bring you a desktop with a set of applications that work well together and nicely fit a KDE desktop.

2) Prepare the contents of .kde and install them on /etc/skel

Note: it you don't know what /etc/skel is please read a correct explanation here.

This is a surgical step that will ensure you only have to customize users once. Proceed as follows: 2.1 )backup your default .kde
cp -R .kde dot_kde
2.2) Change whatever has to be changed in the GUI (menus, panels, desktop, etc) 2.3) Detect configuration file changes
diff -qr .kde dot_kde
2.4) Sanitize the content of your configuration files

This not an algorithmic step but something to learn from inspection, trial and error. In the cleanup process is important to remove any references to the specific user you are logged in with (ex: references to Recent Files), and unnecessary geometry related references (ex: absolute dimensions of a panel) that should be calculated on the first login.

2.5) Install the modified files from .kde/share/config and .kde/share/apps under /etc/skel/.kde ...

2.6) Create a new user and login. If it's not as you want it go back to step 2.2)


3) Other configuration files

Follow the same logic for all other application configuration files. For example, if you use SMPlayer as a media player you may want  to preconfigure it on

/etc/skel/.config/smplayer/smplayer.ini. 

You may also want to configure GTK so that GTK base applications look good under KDE

/etc/skel/.gtkrc-2.0
/etc/skel/.config/gtk-3.0/settings.ini
Here is an example of settings.ini

[Settings]
gtk-theme-name=oxygen-gtk
gtk-icon-theme-name=oxygen-old
gtk-font-name=Sans 10
gtk-cursor-theme-name=DMZ-White
gtk-cursor-theme-size=0
gtk-toolbar-style=GTK_TOOLBAR_BOTH_HORIZ
gtk-toolbar-icon-size=GTK_ICON_SIZE_LARGE_TOOLBAR
gtk-button-images=1
gtk-menu-images=1
gtk-enable-event-sounds=1
gtk-enable-input-feedback-sounds=1
gtk-xft-antialias=1
gtk-xft-hinting=1
gtk-xft-hintstyle=hintfull
Once done, this will make GTK based applications use a theme that somewhat matches the looks of KDE applications, unlike the default theme that doesn't look good at all under KDE.


4) Enjoy effortless KDE installations

If things went right you can now add/remove the packages and install the skel configuration files on a post-install script. The result could look like this.




domingo, 1 de abril de 2012

Ser Português

Procuram-se estes cromos. Se os viu reporte-os por favor ao blog mais próximo.

Ass
A Gerência.

Cristiano Ronerd

FreeQuim

Interhat Explorer

Só para quem não percebeu e não olhou para a data: este post é uma homenagem a um dos nossos melhores fornecedores de gargalhadas, o Ser Português.

.

domingo, 18 de março de 2012

Centralizing cross-platform applications on a Linux Terminal Server

Roughly 3 years ago we described how windows-only applications could be (almost) seamlessly delivered to a network of Linux workstations. Although Windows terminal services CALs are not seamless to whoever has to pay for them, the technical solution works very well and can be relied on for mission critical scenarios. Now we will look into what Linux can do, to centralize cross-platform applications. Previously, we stated:
In a ideal world every piece of client software is either:
  • web based, with standards based cross browser development
  • portable, developed with a cross platform language / toolkit (Java, Qt, Gtk+, ...)
But even when an application is cross platform, i.e. able to run on multiple desktop operating systems, it is often preferable to have it centralized if certain conditions are met:
  • it is a critical business application, supported by a separate team
  • it is updated very often
  • it generates a lot of network traffic from the local desktops to a remote server
  • ...
If the application is indeed cross platform (or if it is Linux specific), the correct choice is to centralize it on a Linux server. This "server" is in fact a remote "desktop" which allows for multiple graphical sessions. With Linux, no CALs need to be purchased and there are no limits for the number of clients connecting to the application, besides network and server performance.

The architecture is very similar to the one proposed in the previous article. In fact, we invite you to review it before moving forward on this one.

The xrdp login screen

The key pieces for doing getting the work done are:

1) a Linux distribution to run the application that needs to be centralized
2) xrdp – the open source RDP server
3 Vmware / Xen / ... - so that the Linux distribution can be installed as a virtual machine
4) rdesktop or the newer freerdp - an open source RDP client

As before, preventive measures have to be put in place on the remote machine
  • no administration privileges for any regular user
  • minimal software installation
  • automatic startup of the desired application(s)
Each user must have its own startup script on ~/.xinitrc and ~/.xsession linked to it. As with Windows, the authentication can be local with generic users (usually the management applications have their own authentication...) or made against LDAP, Samba, Active Directory, etc.

Below is an example .xinitrc that launches a very simple window manager (opennbox) and a minimalistic task bar called tint2.
#!/usr/bin/env bash
setxkbmap -layout pt
xsetroot -solid rgb:3b/59/98
openbox &
tint2 &
/usr/local/bin/mount_share.sh
exec /path/to/my/application
The purpose of this script, besides doing some initial setup, is launching the centralized application on an nearly invisible desktop environment. If the users are not local this script has to be created automatically for them during the first login (eg, via /etc/skel and pam_mkhomedir).

A java application running on a Linux remote server

If you need packages for xrdp that work out of the box you can get them from the following locations:

xrdp 0.6 for Ubuntu (tested on 10.04 an 12.04)

xrdp 0.6 for Mandriva / Caixa Mágica 14

Opening a session is a simple as running
rdesktop -g 1024x768 -a 16 -k pt 192.168.0.12
from a desktop shortcut. You can also automate the login process by passing the username and password directly on the command line
rdesktop -g 1024x768 -a 16 -k pt -u User1 -p MyPassword 192.168.0.12

This means that a double click on the desktop shortcut will trigger the opening of a remote session and the startup of the centralized application. Whenever the application is closed the remote session will be terminated.

If at some point the user closes the client window, the session will remain running allowing for a later reconnection. Currently, xrdp supports automatic resize and colour depth adaptation, so it is possible to reconnect from a different device and continue the work interrupted before. It is also possible to connect from Windows clients since xrdp has been tested with at least Windows XP and Windows 7.

One thing xrdp doesn't support yet is forwarding the print jobs as the Windows terminal server component does. However, if you are on a LAN or VPN, you can have your central Linux terminal server recognize the printers from all your CUPS servers and print directly to their print queues. You can also have your users print to a PDF file on a shared folder which can accessed from the local workstation.

Xrdp is an amazing piece of Open Source software. It can used for more ambitious tasks, such as centralizing entire desktop sessions to be accessed by thin clients. That is a more complex topic which may be the subject of a future article.

terça-feira, 10 de janeiro de 2012

VMware 2 long process names vs top: meet vmware-top

Have you noticed how VMware 2 process names are very-very-long-freight-train-long-we-could-say?

That is why when you run "top" on a VMWare 2 server you can't realize which VM is taking over great amounts of CPU or memory. On the other hand "ps" shows the complete process names but is unable to display instantaneous CPU usage.

What to do then? Interestingly, this seems to be an orphan question.

The solution is a custom script that uses both top and atop to display the list of VMware 2 processes sorted by CPU consumption. The result can be downloaded from here and looks like this.


Notes:
  • you must have "top" and "atop" installed for this to work.
  • the shell script is not pretty