WirelessBRASIL |
|
WirelessBrasil --> Bloco Tecnologia --> Índice de 2013 --> "Post"
Obs: Os links indicados nas transcrições podem ter sido alterados ao longo do tempo. Se for o caso, consulte um site de buscas.
12/11/13
• Marco Civil - Uma "aula" sobre a estrutura da internet: ‘Há desconhecimento sobre a rede’ - Entrevista com Carlos Alberto Afonso, cofundador do Comitê Gestor da Internet do Brasil
Olá, "WirelessBR" e "telecomHall Brasil"!
01.
Transcrevo mais abaixo esta entrevista com Carlos Alberto Afonso,
engenheiro e cofundador do Comitê Gestor da Internet do Brasil:
Leia na Fonte: Link / Estadão
[11/11/13]
‘Há
desconhecimento sobre a rede’ - por Murilo Roncolato
Vale conferir!
02.
Nos próximos "posts" pretendo transcrever as entrevistas anteriores deste
conjunto, publicadas no (ex-Caderno, hoje Blog) Link, do Estadão.
Enquanto isso, Leia na Fonte:
[31/10/13]
Marco
Civil: ‘Faz sentido guardar dados no Brasil’
Entrevista com Virgílio Almeida, membro do conselho do Comitê Gestor da
Internet e secretário do Ministério da Ciência, Tecnologia e Inovação
[01/11/13]
Marco
Civil: ‘Há pontos de retrocesso’
Entrevista com o advogado Renato Ópice Blum, especialista em direitos
eletrônicos e membro de comissão de crimes da OAB-SP
[05/11/13]
Marco Civil: ‘Preservar coerência é importante’
Entrevista com Carlos Affonso de Souza, professor da Universidade do
Estado do Rio de Janeiro (UERJ), diretor do Instituto de Tecnologia e Sociedade
(ITS)
[06/11/13]
‘Apenas
operadoras são contra neutralidade’
Entrevista com o deputado federal Alessandro Molon (PT-RJ), e relator do
projeto do Marco Civil da Internet
03.
Notícia de hoje:
Votação adiada por uma semana
"Após reunião com líderes, o ministro da Justiça, José Eduardo Cardozo, disse
nesta terça-feira, 12, que a votação do projeto do Marco Civil da Internet deve
ser adiada em uma semana. O tempo será útil para o governo continuar se reunindo
com parlamentares em busca de consenso sobre os pontos essenciais do texto.
Cardozo deixou claro que o governo pode ceder em alguns pontos e alterar a
redação do projeto, mas não abrirá mão da neutralidade da rede." (...)
Ler mais no Link
Boa leitura!
Um abraço cordial
Helio Rosa
Portal WirelessBRASIL
Leia na Fonte: Link / Estadão
[11/11/13]
‘Há
desconhecimento sobre a rede’ - por Murilo Roncolato
Entrevista sobre Marco Civil da Internet com Carlos Alberto Afonso,
engenheiro e cofundador do Comitê Gestor da Internet do Brasil
SÃO PAULO – O projeto de lei nº 2126/2011, o chamado Marco Civil da Internet,
ganhou novo texto após o Executivo ter colocado sua tramitação sob regime de
urgência. O adiamento da sua votação trancou a pauta da Câmara e deve ser votado
nesta semana. No entanto, mais mudanças podem acontecer.
Nesta reta final, o Link publica entrevistas com pessoas influentes sobre o
assunto e envolvidos diretamente nas discussões. Na quinta entrevista da série,
conversamos com Carlos Alberto Afonso, engenheiro pioneiro da internet no
Brasil, foi um dos fundadores, em 1995, do Comitê Gestor da Internet do Brasil,
onde hoje é membro como representante do terceiro setor.
Confira a entrevista:
O senhor comentou que as propostas ao Marco Civil estão evidenciando profundo
desconhecimento de como a internet realmente funciona, principalmente quanto à
necessidade de pontos de troca de tráfego (PTTs). Ao que o senhor se referia?
A Internet hoje é uma rede de redes (por isso o “I” maiúsculo). Cada rede contém
máquinas localizáveis por um endereço numérico – o número IP. Uma rede definida
por blocos contíguos de endereços (conhecidos como “números IP”), é identificada
na Internet como um “sistema autônomo” (AS). São estes ASs que interconectam-se
através de centenas de pontos de interconexão (também conhecidos como pontos de
troca de tráfego ou PTTs) mundo afora, constituindo a Internet planetária. Essas
interconexões podem estar dentro ou fora do país da entidade à qual pertence o
AS. O conteúdo da Internet, composto de datagramas (os “packets”), é trocado
entre qualquer par de computadores através de caminhos dessas redes que podem
variar até mesmo durante o envio de uma mensagem simples de e-mail. Sistemas de
roteamento decidem qual o melhor caminho a seguir através dos pontos de
interconexão para entregar cada datagrama.
Como exemplo da importância de otimizar a interconexão, o serviço Netflix mantém
servidores em São Paulo. Usuários paulistas do serviço de banda larga Vivo
Speedy se conectam ao Netflix nesses servidores. Já os cariocas que utilizam o
Net Virtua têm que utilizar os servidores do Netflix de Miami, porque a
interconexão interna ainda não está otimizada.
Do ponto de vista interno, graças em grande parte à visão estratégica do NIC.br
(Núcleo de Informação e Coordenação do Ponto BR), estamos bem em alguns
componentes cruciais da Internet. Somos o segundo país do mundo em pontos de
troca de tráfego (com 23 PTTs – os EUA têm 87) interconectando mais de 500 redes
nacionais. Isso otimiza o tráfego nacional de dados e reduz a necessidade de
usar conexões internacionais para a troca de dados entre as redes. O Canadá
tinha no ano passado apenas dois. Por que essa disparidade entre um país de
ponta da Internet e o Brasil? Porque as redes canadenses até recentemente
consideravam que era mais barato trocar tráfego em Nova Iorque ou Los Angeles do
que em Toronto ou Vancouver. Foi preciso a “sacudida” de Snowden para desatar
uma corrida para instalação de PTTs no país.
Temos ainda no país 18 servidores regionalmente distribuídos que reproduzem os
servidores-raiz do DNS (os sistemas que permitem localizar serviços por nomes de
domínio – uma espécie de “lista telefônica” da Internet), e temos também um dos
melhores e mais seguros serviços de DNS do planeta. O DNS permite localizar, por
exemplo, o endereço IP 204.2.249.106, quando consultamos o domínio “estadao.com.br”.
Sem isso seria impossível chegar ao servidor que contém as páginas do Estadão, a
menos que memorizássemos esses números.
O que falta então?
O que falta é capacidade de trânsito bem distribuída para todos os municípios,
bem como capacidade de trânsito internacional também distribuída
equilibradamente para todas as regiões do mundo – e isso não nasce da noite para
o dia. Temos cerca de duas mil redes (ASs) no país, e pouco mais de um terço
troca tráfego nacional dentro do País. Isso em parte é devido a vários fatores,
e especialmente para os pequenos provedores pode custar caro chegar com a fibra
ou rádio ao PTT mais próximo – lembrando que o serviço dos PTTs operados pelo
NIC.br é gratuito, mas é preciso chegar neles.
Assim, a interconexão internacional é peça fundamental para otimizar a presença
brasileira na Internet mundial. Hoje grande parte do tráfego internacional
brasileiro com outros países passa pelos EUA. Não temos ainda conexões
independentes de alta capacidade com as várias regiões do mundo que possam
minimizar o uso dos EUA como “caixa de passagem” de nossas comunicações com o
exterior.
Avançar nisso significa um amplo programa estratégico que envolva: necessidades
de capacidade estimadas de curto a longo prazo de tráfego de dados para cada uma
das regiões (Américas, África, Ásia, Europa); tempos e custos de projeto,
provisionamento, lançamento de cabos submarinos e terrestres, construção de
estruturas; investimento, financiamento, sustentabilidade; controle
institucional/empresarial; otimização da interconexão.
Há vários projetos de cabos submarinos internacionais, alguns em andamento,
outros em proposta – como o BRICSCable, uma proposta de investidores
sul-africanos para interconectar diretamente os BRICs (Brasil, Rússia, China e
África do Sul). Este projeto poderia ser uma das alternativas de interconexão
com a África e Ásia, mas ainda não decolou. A Telebrás planeja cabos
internacionais tanto para interconexão latino-americana como para alcançar
África e Europa. A maioria desses projetos não estará pronta a curto prazo, e é
essencial para minimizar nossa dependência de tráfego via EUA.
A construção e operação de enlaces internacionais envolve compartilhamento de
custos operacionais e de custos de trânsito ou troca de dados. Em qualquer caso,
terá que haver um acordo de segurança compartilhada entre os envolvidos para
garantir que os cabos estejam imunes à bisbilhotagem por qualquer país. Não vejo
como isso pode inspirar confiança, à luz da bisbilhotagem maciça revelada por
Snowden (que demonstrou que as operadoras de rede tem sido contratadas pela NSA
para fornecer acesso a esta), sem uma supervisão pluralista efetiva por parte de
todos os setores envolvidos.
Sobre a obrigatoriedade da guarda de dados brasileiros em datacenters
localizados no País, possibilidade que o novo Marco Civil permite que Executivo
faça por meio de decreto. É viável discernir dado brasileiro de dado de fora? Há
alternativas?
Aqui é preciso separar os tipos de dados, começando pelos registros de conexão e
sessão (ou visita), os “logs”. Registros de acesso são normalmente feitos por
fornecedores de conexão (os provedores de banda larga móvel e fixa). Como a
conexão é paga e há um contrato entre usuário e provedor, esse registro é
importante até para dirimir dúvidas na prestação adequada do serviço. Já os
registros de sessão (o registro de sua visita a uma página, ou de uso de um
aplicativo qualquer em uma rede) são usados por provedores de aplicações e de
conteúdos para avaliar o interesse dos usuários pelo serviço. Esses registros
não são obrigatórios, nem deveriam ser. Na maioria imensa dos casos, as páginas
visitadas e os serviços utilizados são gratuitos e ninguém é obrigado a usá-los
para estar na Internet. Serviços informativos ou interativos, gratuitos, muitas
vezes até mantidos voluntariamente, como um blog, podem ser de escala tão
pequena que a manutenção de registros (ou “logs”) pode inviabilizar
economicamente o serviço.
E há um aspecto em comum aos dois tipos de registros. Em todas as propostas de
legislação que temos visto no Congresso até agora para “regular” ou impor esses
registros, não se inclui o requisito de confiabilidade da informação. Se um
projeto de lei quer o registro por motivos legais, essa legalidade é posta em
dúvida se o registro não for feito de acordo com padrões de confiabilidade
reconhecidos ou certificados. Isso no entanto encareceria ainda mais a
manutenção desses registros, especialmente no caso dos registros de sessão.
E aqui já entramos na seara confusa de que conteúdos devem ser armazenados
fisicamente no país. Se você visita as páginas do New York Times (sediadas em um
datacentro da Level 3, provavelmente em Seattle), o registro de sua visita
estará em um servidor dos EUA. É impraticável e legalmente impossível exigir que
esse registro fique em um servidor no Brasil. Já o registro de sua conexão com a
Internet estará em algum servidor da operadora que fornece essa conexão – e é
tecnicamente possível que esse registro esteja inclusive fora do país, mas é
improvável.
Conclusão: os registros de sessão serão armazenados pela empresa que hospeda o
serviço visitado, e até mesmo serviços nacionais de conteúdo e aplicações (como
jornais, blogs, páginas de e-commerce, e-mail e outros) podem estar fisicamente
em servidores no exterior. Isso em boa parte é devido a que os custos de
sediamento são muito mais baratos nos EUA que aqui. E aqui chegamos aos
conteúdos em si (e-mails, tweets, páginas de aplicações como portais, sistemas
interativos como Twitter e Facebook, sistemas de busca como Google e Yahoo,
etc.). A complexidade aumenta mais. A rede de redes é planetária e a localização
de serviços é feita com base na melhor qualidade possível ao menor custo
possível.
Para dados sob a responsabilidade direta do governo (exemplos: dados da Receita
Federal, base de dados de DNA, dados dos DETRANs etc) é trivial e imprescindível
que os dados sejam armazenados em servidores sob controle do governo. Para os
demais, a menos que o governo resolva intervir diretamente nos serviços
oferecidos na rede (e a maioria dos grandes serviços abertos ao público é
gratuita para o usuário final e de natureza privada), o que seria uma
catástrofe, a única maneira de estimular a construção e operação de datacentros
no país é tornar essa atividade internacionalmente competitiva aqui dentro.
Como fazer isso?
Parte do problema está na capacidade e qualidade de nossas conexões com o resto
do mundo – nossas conexões saturadas com o exterior com custos respectivos muito
elevados e com pouco ou nenhum controle nacional efetivo (lembremos que a sexta
economia do planeta sequer tem um satélite de comunicações para chamar de seu).
Outro elemento é o custo e disponibilidade de energia elétrica (alguns dos
grandes datacentros dos EUA são instalados próximos a hidroelétricas para
reduzir custos). São Paulo é relativamente bem conectada mas não tem mais
energia elétrica disponível a curto prazo. É preciso descentralizar a
conectividade e permitir assim a construção desses datacentros em outras
cidades.
Então, esse movimento requer políticas públicas bem organizadas para criar essas
condições, e obviamente não vai ter resultados a curto prazo. Além disso, essa
política deve buscar atrair investimentos em datacentros para serviços
internacionais, e não apenas para “guardar dados de brasileiros”.
Como fica o gigantesco volume de dados gerados originalmente por brasileiros e
armazenados lá fora (em centros de pesquisa, em sediadores comerciais, em
repositórios internacionais, em bases de dados de aplicativos etc etc)? Dou o
exemplo da rede mundial de repositórios digitais da obra de Paulo Freire – a
melhor delas está no OISE, da Universidade de Toronto, que inclui praticamente
toda a obra de Paulo Freire e textos de outros pesquisadores nacionais. Terá a
Universidade de Toronto que transferir esse conteúdo de brasileiros para o
Brasil?
E em um serviço de rede social como o Twitter, em que as interações dos
participantes são frequentemente multinacionais? Os tuites dos brasileiros terão
que estar armazenados no Brasil? E os tuites acompanhados por esses brasileiros?
E as respostas ou retuites? Em um serviço de email, as interações de mensagens
com pessoas de fora do Brasil serão armazenadas onde? As pessoas de fora
aceitarão essa imposição brasileira ou em vários serviços ficaremos isolados no
país?
Para quem não conhece como funciona a rede, é muito simples alardear propostas.
Mas foram essas perguntas feitas antes de definir-se uma política? Aqui, como no
caso da insistência de conselheiros da Anatel de pedir à ICANN (que coordena o
serviço de DNS mundial mas nada tem a ver com o tráfego de dados) um ponto de
troca de tráfego no Brasil, revela-se um grande desconhecimento – agir sobre
esses temas sem conhecê-los é uma grande irresponsabilidade.
Em resumo, não faz sentido incluir isso armazenagem de dados no Marco Civil; é
plano de localização de serviços, não pertence a uma carta de princípios; não se
pode obrigar ninguém a trazer datacentros para o Brasil ou, especialmente,
transferir conteúdos sob sua responsabilidade, que muitas vezes afeta usuários
de outros países, para o Brasil. O correto é estimular o desenvolvimento dessa
infraestrutura no país, e para isso falta muito, como já vimos.
Alterações no Marco Civil que reduzam os princípios de neutralidade de rede
desconfigurariam o propósito da lei?
Lembremos que a exigência de violações ou limitações à neutralidade da rede são
feitas pelas transnacionais de telecomunicações que detêm a quase totalidade da
infraestrutura de redes no país – e isso significa que as decisões sobre
políticas dessas empresas no país não são tomadas aqui, mas nas sedes dessas
empresas.
O que essas empresas querem? Em primeiro lugar, querem poder limitar o tráfego
de dados arbitrariamente e com isso ampliar a margem de lucro das redes
existentes em detrimento do investimento em mais capacidade. Em segundo lugar,
querem o direito de utilizar os registros de conexão para gerar perfis de
usuários e vender serviços diversos a partir desses perfis. Isso é feito por
serviços gratuitos de aplicações, como Google, Yahoo, Facebook etc etc. Mas
esses serviços não são obrigatórios e não cobram pelo acesso – além disso, ao
inscrever-se nesses serviços o usuário tacitamente aceita essas condições. Já a
conexão com a Internet é obrigatória se você quiser estar na rede, e isso é
pago. Você já pagou pelo serviço e ainda assim as transnacionais das
telecomunicações querem ter o direito de violar sua privacidade com a mineração
e revenda do seu perfil de uso da rede.
São esses dois aspectos centrais da neutralidade da rede que defendemos, e que
estão sintetizados na proposta do Marco Civil apresentada ao Congresso. Essa
visão é parte dos “10 Princípios para a Governança e Uso da Internet no Brasil”,
aprovados por consenso em 2009 pelo CGI.br e sobre os quais foi construída a
proposta do Marco Civil.
Qual sua opinião sobre a desvinculação de casos de infração a direitos
autorais do Marco Civil?
Temos que responder à pergunta: quem é imputável? Quem coloca um conteúdo na
rede (seja seu ou de outrém, com ou sem autorização) é responsável por esse ato,
não o sediador ou o transportador dessa informação. Do mesmo modo que não
podemos responsabilizar a concessionária da Via Dutra pela passagem de um
veículo carregado com drogas ilegais, não podemos responsabilizar a rede pelo
conteúdo que nela trafega. Da mesma maneira que um hotel não pode ser
responsabilizado pelos crimes de um hóspede com problemas na justiça, não
podemos tornar automaticamente responsável o sediador de um conteúdo
inconveniente ou ilegal.
Podemos e devemos permitir os procedimentos legais devidos para eventual remoção
de conteúdo. Mas o texto permitia que uma pessoa física ou jurídica alegue
violação de direito autoral e exija a retirada com uma simples interpelação
extrajudicial. E isso é inaceitável porque, além de responsabilizar as vias de
transporte ou os hospedeiros, praticamente impõe a estes inconstitucional poder
de polícia – além de o ônus da prova desse direito recair sobre a rede ou o
hospedeiro, o que pode resultar em custos legais inalcançáveis para a maioria
dos serviços.