José Ribamar Smolka Ramos
Telecomunicações
Artigos e Mensagens
ComUnidade
WirelessBrasil
Setembro 2010 Índice Geral
17/09/10
• Como será o futuro da internet? (Texto de José Smolka no website de Ethevaldo Siqueira)
Fonte: Website do Ethevaldo
Siqueira
[17/09/10]
Como será o futuro
da internet? - por J. R. Smolka*
Entretanto, a especificação do
mobile IPv6 que está
publicada na
RFC 3775 parece apenas
uma versão requentada do mobile IPv4. Mais ou menos assim como pegar um fusca e
turbinar o motor, colocar aerofólio, spoilers etc. e tal. Vai ficar
tecnologicamente atualizado e bacana, porém, a essência ainda é de fusca. As
principais diferenças do mobile IPv6 em relação ao mobile IPv4 são: o papel do
foreign agent resume-se a atribuir o CoA ao host visitante e
comunicar este fato ao home agent deste; e a comunicação entre o host
visitante e o seu home agent é feita diretamente entre eles, sem a
intermediação do foreign agent.
Se alguém estiver tendo sensações de dejà vu com estas descrições do
mobile IPv4 e mobile IPv6 provavelmente é porque já viu, realmente, algo
parecido: o
GPRS (General Packet
Radio Service), cuja
especificação é feita
pelo 3GPP. Troque foreign agent por
SGSN (serving
GPRS support node) e home agent por
GGSN (gateway
GPRS support node) nas descrições acima e fica tudo certo, com a
exceção que o GPRS inclui a definição do seu próprio protocolo de encapsulamento,
o
GTP (GPRS tunneling
protocol).
Vou fazer uma pequena pausa na minha linha de argumentação, apenas para explicar
porque a migração IPv4-IPv6 não ocorreu na velocidade esperada, e só está
ganhando ímpeto agora, quando o
esgotamento do address space
IPv4 já esta à vista.
Quando foi feita a migração do NCP para o TCP/IP entre janeiro de 1982 e janeiro
de 1983 (ver RFC 801), a
internet era bem menor, e com muito menos tráfego e diversidade de serviços. A
única estratégia válida para migrar do IPv4 para o IPv6 é o dual stack.
Isto significa que, durante o período de migração (que pode levar vários anos
para se completar) os hosts têm de conviver com duas pilhas de protocolos
simultâneas, para permitir conexão tanto com serviços já migrados para o IPv6
quanto com serviços que ainda usam apenas o IPv4.
Outra grande diferença entre aquela migração e esta é que a internet era,
naquela época, principalmente um empreendimento da comunidade acadêmica, e hoje
é quase totalmente um empreendimento comercial. Isto significa que, como todos
os outros empreendimentos comerciais, os provedores de serviços estão sempre de
olho nos seus custos operacionais. E fazer a migração dual stack
representa custo.
Vou usar como exemplo as próprias operadoras celulares e seus packet cores
GPRS, EDGE ou HSPA. Se o UE (user equipment), que pode ser um
smartphone, um tablet, um netbook etc., tiver de funcionar em modo dual
stack, ele terá de manter dois contextos PDP (packet data protocol)
simultâneos, um para a conexão IPv4 e outro para a conexão IPv6. E isto tem
consequências para a sinalização na interface aérea e para o dimensionamento (e
custo) dos SGSN e GGSN. Por isso é que a migração só está sendo feita quando,
com perdão da expressão chula, a água fria começou a bater na bunda.
Mas chega de distrações. Por que, exatamente, eu falei que esta forma de prover
mobilidade não é a que deveria ter sido perseguida no IPv6, e por que ela, sendo
como é, prejudica os interesses dos usuários? Existe o argumento trivial da
ineficiência do encaminhamento do tráfego do host visitante sempre até o
home agent, daí até o serviço realmente desejado pelo usuário e de volta
pelo mesmo caminho. O impacto disto depende muito da amplitude média dos
deslocamentos que os usuários fazem. Se apenas uma pequena fração dos usuários
se mover para localidades realmente longe dos seus home agents, então o
impacto econômico deste argumento é desprezível. O problema real que eu vejo é
mais profundo, e tem dois aspectos.
Primeiro, neste modo de prover mobilidade, está implícita a ideia (que fica
ainda mais forte por causa da abundância do address space IPv6) que o
endereço IP é uma espécie de identificação unívoca do usuário. Este é um
conceito transplantado da rede telefônica, e mesmo lá já estava sendo usado de
forma errada.
Como a rede telefônica é homogênea e provê apenas um serviço (comutação de
circuitos temporários de voz), parecia natural que o número do terminal
identificasse o próprio usuário. Afinal de contas, ter múltiplos telefones era
coisa para empresas ou pessoas muito ricas. Pessoas comuns tinham uma única
linha, e o número da linha ficava associado inerentemente à pessoa. Mas isto é
uma distorção que só ficou visível recentemente, quando alguém teve a brilhante
ideia de garantir a portabilidade dos números de telefone quando o usuário mudar
de operadora. Para garantir a portabilidade numérica os processos de call
setup e billing da rede telefônica tiveram de subir para novo
patamar de complexidade (como se eles já não fossem complexos o suficiente).
Só que existe uma distinção filosófica importante entre os conceitos de endereço
e nome. Endereço é algo que informa “onde você está”, e nome é algo que informa
“quem você é”. Os números da rede telefônica sempre foram endereços, e não
nomes. Mas isso só ficou evidente com o advento da telefonia móvel e da
possibilidade de o usuário trocar de operadora (e, consequentemente, de endereço
na rede).
Só que quiseram atribuir a um endereço características de nome, daí a
portabilidade numérica tornar-se uma dor de cabeça em termos de sinalização. Na
internet esta distinção ficou evidente desde cedo, e o problema foi evitado pelo
uso de um serviço que informa o endereço IP associado ao nome (URI -
universal resource identifier) de qualquer recurso: o
DNS (domain naming
system), cuja definição básica está na
RFC 1035.
Seria relativamente fácil estender o DNS, ou mesmo criar um serviço análogo ao
DNS, que servisse como diretório para localização do endereço IPv6
temporariamente associado ao nome de um usuário. Mas preferiram continuar usando
o modelo de mobilidade usado no IPv4, e isto leva inerentemente à ideia de que o
endereço IP é uma espécie de identificação pessoal do usuário, o que ele não é,
nem vai ser. Se continuar assim, certamente teremos problemas mais à frente.
O segundo aspecto problemático desta abordagem para a mobilidade é que, muito
embora as especificações do 3GPP para a evolução do
UMTS (Universal Mobile
Telecommunications System) digam que o evolved packet core poderá ser usado com
outras redes de acesso além da evolved
UTRAN (UMTS Terrestrial
Radio Access Network), o máximo que eu consigo ver acontecendo neste sentido
será a integração (isto quer dizer a garantia de seamless roaming) das
tecnologias que vierem a ser expressivas para a bolha de cobertura
doméstica, caso o modelo das femtocells não consiga atingir a maioria
deste mercado.
Mas seamless roaming entre a rede de acesso convergida e outras
eventuais redes de acesso disponíveis para o usuário? Duvido que façam. Mesmo
com o
WiMax, que é primo irmão
do
LTE (ambos usam a
tecnologia
OFDM - Orthogonal
Frequency-Division Multiplexing), não creio que seja feito. Isto porque o desejo
de preservação da rede como um valor intrínseco dos serviços de telecomunicações
é muito importante para as operadoras, mas mais importante ainda para os
fabricantes de equipamentos de telecom.
Mais adiante ainda falaremos mais deste processo de erosão de valor, por
enquanto basta observar que esta abordagem comodista em relação à mobilidade
leva a um esquema monocromático de acesso para os usuários, que só é
interessante para as operadoras e para seus fornecedores de equipamentos.
Ufa! E tudo isto foi só para o problema
networking vs. internetworking! Ainda temos o
end-to-end principle.
Inteligência e valor
Quando a rede telefônica começou a ser construída, era virtualmente impossível,
por razões tanto técnicas quanto econômicas, que os terminais dos assinantes
possuíssem qualquer forma de inteligência, salvo o mínimo necessário para a
sinalização de call setup.
Com o tempo firmou-se um paradigma que ninguém mais discutia: o terminal do
assinante deve, sempre, ser o mais simples possível, e a complexidade deve ser
absorvida e administrada pela própria rede, sem que o usuário fique exposto a
ela. O corolário desta forma de pensar é a crença em que a rede é algo que tem
um valor intrínseco e indissociável do serviço prestado. Tudo muito bom para
ambientes homogêneos e monosserviços, mas as coisas começaram a mudar.
Em 1981 Jerome Saltzer, David Reed e David Clark publicaram o artigo
End-to-End Arguments in System Design,
no qual são apresentadas as justificativas para que a inteligência na rede seja
implementada, sempre, o mais próximo possível das bordas. Idealmente no próprio
host conectado. Este princípio foi incorporado na arquitetura da internet,
primeiro na
RFC 1958 e depois
atualizado na
RFC 3439. Neste novo
paradigma a rede não tem nenhum valor per se, a não ser como transporte
mais ou menos confiável para os pacotes de dados. A percepção de valor, neste
caso, desloca-se totalmente do hardware da rede para o software nos computadores
conectados.
Como qualquer iniciante no estudo do marketing pode confirmar, percepção de
valor é tudo que interessa. Ela é que define quanto as pessoas (ou empresas)
estão dispostas a pagar em troca de algum produto ou serviço. E não nos vamos
iludir: a internet sempre foi (usando outro conceito caro aos marquetólogos)
posicionada para ser o substituto, não o complemento, das redes de serviços de
telecomunicações tradicionais.
A percepção da internet era de que, muito em breve, toda aquela arquitetura
jurássica das redes de telecomunicações baseadas em hardware especializado,
proprietário e caríssimo seria substituída por uma estrutura muito mais leve e
flexível, baseada quase totalmente em software, e com arquitetura aberta.
Parecia certo que a história da derrota da IBM pela Microsoft, da queda dos
mainframes e da ascensão dos personal computers iria repetir-se, e
muito em breve os grandes nomes da indústria de telecomunicações seriam empresas
como a Cisco Systems e a Juniper. Isto, como sabemos, levou ao nascimento,
expansão e subsequente estouro da bolha da internet.
Entretanto, mesmo no ambiente mais racional pós-bolha, o deslocamento da
percepção de valor para o software nas pontas já era permanente, e restou para
quem estava no meio – as operadoras e seus fornecedores tradicionais – um papel
que não agrega quase nenhum valor: o de dumb bitpipe ou, vá lá, o de
idiot-savant
bitpipe. Mas quem disse que eles estavam dispostos a deixar-se arrastar?
Coletivamente, a indústria de telecomunicações mostrou ter uma casca bem mais
dura do que parecia à primeira vista.
Estamos agora completando praticamente 20 anos desde que a comunidade
tradicional de telecom reconheceu e abraçou (pelo menos nominalmente) o conceito
de uma global information infrastructure, que está descrita na
série Y das recomendações da ITU-T. Mas, em termos práticos, a
adoção do TCP/IP nos processos de negócio de telecom foi feita sempre com o
máximo de reticência possível, sempre sob a cobertura do argumento de que não se
podia arriscar levianamente a qualidade do serviço prestado ao assinante, blá..
blá... blá...
Na verdade, eles nunca tiveram a intenção de conformar-se com o papel de meros
fornecedores da infraestrutura de comunicação. A ambição é bem maior. Eles
querem ser os atores centrais do processo, sem os quais nem usuários nem
provedores de serviços podem transacionar livremente. Em outras palavras, eles
desejam ferrenhamente acabar com o end-to-end principle, e plantarem-se
irrevogavelmente entre as duas pontas do processo de comunicação, cobrando
pedágio de ambas as pontas pelo privilégio de poder fazer negócios
através deles. Parece exagerado? Vamos ver...
O modelo operacional para os novos serviços de telecom, proposto pelo 3GPP,
baseia-se na
arquitetura IMS (IP
Mobile Subsystem). Curioso... Embutido naquela barafunda de acrônimos esquisitos
existem algumas coisas interessantes. Vejamos: UPSF (user profile server
function), IMPI (IP multimedia private identity) e IMPU (IP
multimedia public identity). O que vocês acham que estas coisas são?
Exatamente... São aquela famosa extensão do DNS, que eu citei anteriormente, e
que a IETF esqueceu de detalhar na arquitetura da internet IPv6. Só que, para
tirar proveito desta facilidade, os usuários e os serviços têm de entrar em
conformidade com toda a arquitetura do IMS. E o que significa isto? Que toda e
qualquer sessão entre um usuário e um serviço, para poder ser iniciada e
mantida, precisa ser avaliada, autenticada e liberada pelo IMS. Portanto, não
somente os assinantes dos serviços da rede terão obrigações com ela. Os
provedores de serviços, caso desejem participar do esquema, terão de entrar em
conformidade com as interfaces padronizadas do IMS. E isto seria o dobre de
finados para o end-to-end principle.
Tudo isto vem embrulhado em uma linda embalagem de argumentos de marketing: como
os provedores de serviços podem usufruir de uma
API (application programming interface) que facilite
o desenvolvimento de aplicações que incluam nativamente os recursos da rede; e
como todos terão garantia de segurança e qualidade dos serviços. Lindo. Mas esta
visão idílica ainda sofre para ser implementada na prática. Parece que, como
naquele (talvez mítico) incidente entre Garrincha e Vicente Feola na Copa do
Mundo de 1966, esqueceram de combinar com os russos...
Aparentemente, as operadoras de telecom imaginavam que, com o lançamento das
suas redes 3G (HSDPA e HSPA), o tráfego de dados fosse crescer, mas com um
perfil semelhante ao que elas vinham observando nas redes 2G (GPRS e EDGE).
Enquanto isso, a Apple lançou o iPhone acoplado com a sua própria loja de venda
de downloads, calçada no serviço iTunes, e o conceito de smartphone e a ideia
das app stores decolaram de vez. Eu consigo visualizar o Steve Jobs
imitando o
Chapolim Colorado: "Eles
não contavam com a minha astúcia!"
E não contavam mesmo. O impacto de tráfego de dados 3G representado pelo iPhone
e, logo em seguida, por toda uma constelação de aparelhos com o mesmo conceito
pegou as operadoras de calças curtas no mundo todo. Confrontadas com o tamanho
do
CapEx necessário para
expandir o backhaul da rede de acesso 3G, as operadoras preferem dar uma no
prego e outra na ferradura: estão apressando a ampliação e modernização da
infraestrutura de transmissão (algo que vinha sendo negligenciado há algum
tempo), mas, em paralelo, subiram de tom e começaram a cortar os planos
comerciais que prometiam acesso de dados ilimitado (o que, aliás, sempre foi uma
mentira). Tudo em nome da qualidade do serviço. Give me a break...
As app stores associadas às marcas dos fabricantes dos aparelhos
representam outra espécie de ameaça, porque roubam das operadoras o valor da sua
própria marca. A fidelidade dos usuários liga-se à marca dos fabricantes de
aparelhos. O curioso é que, dentro da comunidade de telecom, há algum tempo está
sendo arquitetada a mãe de todas as app stores: o
SDP (Service Delivery
Platform).
Concebido para ser o complemento natural do IMS, com o SDP as operadoras podem
criar seus próprios ecossistemas de desenvolvimento rápido de
aplicações e novos serviços. Entretanto, como o SDP está tendo uma decolagem
lenta, as operadoras decidiram investir numa estratégia mais simples, mas
potencialmente de resultados mais imediatos: criar a sua própria arquitetura de
app store, que pode ser adaptada para garantir o branding de
cada operadora que a utilizar na sua estrutura de negócio.
Esta proposta atende pelo nome de
WAC (Wholesale
Applications Community), mas, como seu lançamento ocorreu há pouco tempo (no
Mobile World Congress 2010 em Barcelona), ainda não dá para dizer se dará certo
ou não, embora a maioria dos pesos-pesados da área (AT&T, Verizon, Vodafone,
Telefónica et caterva) esteja, pelo menos nominalmente, apoiando a
proposta.
Isto mais ou menos representa o estado de coisas hoje. Chega de explicações e
vamos às conclusões.
Rounding up
Falando em termos bem gerais, podemos ver que a disputa bellheads vs.
netheads vai muito bem, obrigado, já com, pelo menos, 20 anos de idade,
e com gás para durar ainda bastante tempo. Todavia, apesar dos sucessos visíveis
recentes da comunidade nethead, capitaneada pela Apple, Google, Amazon
e assemelhados, eu acho que a comunidade bellhead conseguiu algumas
vantagens estratégicas que podem vir a fazer significativa diferença nos
próximos anos.
A principal delas é o virtual monopólio da rede pública de acesso móvel (só um
momento aqui, para evitar confusões desnecessárias: uso a palavra pública, neste
contexto, com o significado de disponível no espaço público, não no sentido de
pertencente ao povo ou ao governo). Mesmo que as redes de acesso privadas não
venham a ficar tão homogêneas quanto a rede pública, a necessidade de
interoperação e seamless roaming entre os dois espaços garantirá que as
operadoras estarão em posição dominante neste jogo.
Com a adoção cada vez mais maciça ao IPv6 (em minha opinião este é um processo
que se acelera em 2011 e estará quase completo lá por 2016) ficará indistinta a
separação entre a internet em geral e a rede das operadoras.
A tentação lógica para elas é começar a fazer seus próprios acordos de
peering IPv6, passando ao largo dos players tradicionais desta área, e
incorporando nestes acordos cláusulas de garantia de QoS e de interoperabilidade
do roteamento de tráfego multicast (essencial para a distribuição de
serviços de streaming de vídeo e áudio). Se um cenário como este se
confirmar, e as operadoras forem bem sucedidas em conter o avanço dos grandes
prestadores de serviços na internet (principalmente o Google), então elas
conseguiriam o seu maior sonho, que é transformar toda a internet em um
walled garden sob sua administração.
A perseguição deste cenário é, em minha opinião, a principal razão pela qual as
operadoras têm reclamado, em todos os locais e de todas as formas possíveis,
contra o conceito de net neutrality. Elas podem ter sucesso nesta
empreitada? Eu acho que têm mais de 50% de chances de conseguirem o que querem.
Este cenário seria realmente vantajoso para os usuários? Eu creio que não,
porque toda a competitividade do setor poderia ser modulada simplesmente pelo
gosto (ou desgosto) das operadoras de telecom.
Cabe a nós, usuários, bem como aos órgãos de regulação entender estes fatos e
expressar nossas opiniões, para que o espaço da internet possa continuar a ser
plural e favorável ao desenvolvimento de novas ideias.
*José de Ribamar Smolka Ramos é engenheiro eletricista
(UFBa 1982), com especialização em gestão da qualidade (CETEAD/UFBa 1994) e MBA
executivo (FGV RJ/Grupo Telefônica 2001). Trabalha na área de informática desde
1980, tendo atuado em empresas das áreas financeira, industrial e de serviços,
estando desde 1989 na área de telecomunicações. Área principal de interesse:
projeto, implantação e gestão operacional da infra-estrutura e serviços de
comunicação baseados na arquitetura TCP/IP.