Da internet do conteúdo à internet das coisas: de onde viemos e para onde vamos.
Este post é o primeiro de uma série sobre Internet das Coisas e seus impactos. Quer entender o que significa a Internet das Coisas? Então leia aqui.
A internet começou a partir da ARPANET, iniciativa de pesquisadores e militares dos Estados Unidos para troca e compartilhamento de informações durante a guerra fria. Com o final da guerra fria, o governo dos Estados Unidos permitiu que os pesquisadores que tivessem contribuições e estudos na área de defesa entrassem na ARPANET, e, a partir disso, foi criada uma nova ARPANET, dissociada da rede militar. A rede evoluiu de 2 computadores conectados em 1969 para centenas deles em 1977. Neste momento já existiam a maioria dos protocolos necessários para o roteamento e transmissão de dados em pacotes.
Em março de 1989, Tim Berners-Lee, ao perceber que os pesquisadores do CERN (Organização Europeia para Pesquisa Nuclear) tinham dificuldade em compartilhar suas pesquisas de forma estruturada, escreveu um artigo com uma proposta de arquitetura para o gerenciamento de informação das pesquisas. Essa arquitetura juntava o conceito de hipertexto com os protocolos de comunicação por pacotes e permitia estruturar a informação através de hiperlinks. Ou seja, Tim Berners-Lee propôs uma interface de usuário unificada para todos os tipos de informação, suportada por um novo protocolo de transporte.
Segue abaixo a tradução do texto (com o acréscimo de mais algumas informações) retirado da página da ACM sobre o Prêmio Turing de 2016, entregue a ele:
Para implementar essa arquitetura, Berners-Lee definiu várias ferramentas, dentre elas:
- Uniform Resource Identifier (URI) que serve para permitir que qualquer objeto (como um documento ou imagem) na Internet seja nomeado e assim identificado.
- Hypertext Transfer Protocol (HTTP) que permite a troca, recuperação ou transferência de um objeto através da Internet .
- Navegador da Web, um aplicativo de software que recupera e processa recursos na World Wide Web, juntamente com links clicáveis para outros recursos e, na versão original, permitiu aos usuários modificar páginas da web e criar novos links.
- Hypertext Markup Language (HTML) que permite aos navegadores web traduzem documentos ou outros recursos e os renderizam como páginas multimídia.
- Servidor HTTP (httpd) programa sem interface direta com o usuário que responde a uma conexão TCP e serve páginas em hipertexto.
Berners-Lee publicou o primeiro website, http://info.cern.ch/, em 6 de agosto de 1991.
Assim, estava definida a World Wide Web, rede mundial de servidores de hipertexto. Em 1994 Tim Berners-Lee criou o W3C— World Wide Web Consortium, que define os padrões da internet.
Foi dessa forma que a ARPANET se transformou na "internet do conteúdo". Redes de pesquisa de vários países começaram a se conectar nessa rede mundial, agora chamada de internet, para trocar e compartilhar seus estudos. No Brasil, o órgão responsável por isso foi a RNP — Rede Nacional de Ensino e Pesquisa.
A partir de 1991, com a internet aberta ao público, a WWW cresceu, e as pessoas e empresas passaram a se conectar nessa rede. Nesse começo, a conexão era feita por modems, ligados à linha telefônica fixa. O usuário discava para outro número de telefone fixo, que possuía um modem, que por sua vez estava conectado a algum computador já conectado à internet. Estávamos conectando lugares, pois não é a toa que os conjuntos de páginas na WWW eram chamados de sites. A internet passou a ser um "lugar" para encontrar informação sobre lugares físicos e encurtar distâncias, e as pessoas "entravam e saíam" da internet.
As empresas logo perceberam que poderiam conectar os seus clientes aos seus "lugares virtuais" e começaram a ofertar os seus serviços na internet. Desta forma, se tornou possível, via internet, fazer transferências bancárias e pagar boletos, comprar diversos artigos de consumo, reservar uma mesa num restaurante ou compartilhar os vídeos das suas últimas férias. A WEB 2.0 estava instalada, a "internet dos serviços".
Com a popularização da telefonia móvel, começaram a surgir vários desses serviços com foco no compartilhamento de informação. A conexão de dados da telefonia móvel proporcionou a inserção das pessoas na internet o tempo inteiro. Ninguém mais "entrava na internet", todos já estavam conectados 24h por dia. Além de conectar lugares, a internet agora conectava pessoas. As pessoas passaram a ter uma representação virtual na internet, ou simplesmente um "perfil", quando houve uma explosão de serviços para a conexão de pessoas em redes. As redes de pessoas, ou redes sociais, transformaram a internet em "internet das pessoas". E essa foi a terceira onda.
Nesse momento, a internet já possuía mais de 120 milhões de sites e era acessada por mais de 1 bilhão de pessoas, caminhando seguindo os largos passos da Lei de Moore. Essa evolução transformou os computadores em dispositivos ubíquos e possibilitou o surgimento dos smartphones, grandes responsáveis pela internet social. Entretanto, a redução do tamanho dos transistores tem um limite (atualmente a Intel está projetando chips com transistores de 10nm) e alguns já começam a afirmar que a Lei de Moore está chegando ao fim.
A Lei de Moore trouxe mais do que a ubiquidade da computação e da internet e não poderia acabar sem deixar o seu último legado. A grande quantidade de smartphones demandou a produção em massa dos seus componentes: microcontroladores, rádios, telas, baterias e sensores; e isso tornou esse tipo de hardware ainda mais barato, a ponto de possibilitar embarcá-lo em coisas comuns, como lâmpadas, portas, geladeiras e sapatos. Microcontroladores, sensores e atuadores passaram a estar cada vez mais presentes em coisas cotidianas. Conectar, então, essas coisas à internet passou a ser uma questão de tempo. Estava surgindo a "internet das coisas".
Internet das Coisas: Embarcar sensores, atuadores e conectividade nas coisas, para compartilhar seus dados e, com isso, agregar mais valor.
Na verdade, o termo "Internet of Things" foi cunhado por Kevin Ashton em 1999, com a idéia de utilizar RFID para rastrear os cosméticos da P&G e evitar que eles faltassem nas lojas. Ashton percebeu que o processo "manual" de controle do estoque das lojas era a raiz do problema.
Human-entered data is error prone, inexact, and expensive: no one can afford to be constantly entering data about all the details of an ever-changing environment. {…} Computers needed to gather their own information by sensing the world for themselves. — Kevin Ashton.
Em tradução literal: Os dados inseridos por humanos são propensos a erros, inexatos e caros: ninguém pode se dar ao luxo de entrar constantemente com dados sobre todos os detalhes de um ambiente em constante mudança. {…} Os computadores precisam reunir suas próprias informações, sentindo o mundo por si mesmos.
Apesar de ter convencido os diretores da P&G a financiar o seu Auto-ID Center no MIT, a grande maioria das empresas não estava muito interessada em IoT. A Internet das Coisas só começou a ganhar popularidade e atenção mundial mais de 10 anos depois.
Nesse meio tempo, um grupo de professores e alunos do Instituto de Design de Interação de Ivrea na Itália desenvolveu a plataforma Arduino, uma placa microcontrolada barata e fácil de usar, que possibilita a construção de objetos interativos por pessoas que não tinham o conhecimento em computação embarcada. Era a ferramenta necessária para que qualquer pessoa pudesse desenvolver projetos de objetos físicos dotados de sensores e atuadores. A plataforma Arduino, por ser completamente open source, cresceu tanto que ganhou a atenção de grandes empresas de tecnologia, como a Intel e o Google. E aí, adicionar conectividade à plataforma Arduino foi questão de tempo, e permitiu que cada vez mais pessoas começassem a criar objetos interativos e conectados.
O mundo então voltava seus olhos para a Internet das Coisas. Em 2011, o Gartner incluiu "Internet of Things" no seu hype-cycle de tecnologias emergentes pela primeira vez. Em 2014 o Google comprou a Nest (fabricante de termostatos conectados na internet) por US$ 3,2 bilhões; e o tema da Consumer Electronics Show — CES 2014 foi IoT. E foi nesse ano que Internet das Coisas alcançou o pico das expectativas infladas no hype-cycle do Gartner.
Vários institutos de pesquisa de mercado começaram a lançar suas previsões: de 7 a 11 trilhões de dólares em negócios de IoT em 2025. Isso trouxe a atenção de mais empresas, como IBM, Microsoft, Amazon e Apple. Cada uma queria sua fatia no mercado. IoT era o tema de quase todas as conferências em 2015.
Entretanto, não aconteceu com IoT o mesmo que aconteceu com a WWW de alguns parágrafos atrás: Não havia (na verdade não há ainda) um padrão para a Internet das Coisas. Esse "padrão" significa um conjunto de protocolos únicos utilizados por todos os dispositivos e aplicações. Um dos motivos é que, ao contrário da WWW, IoT foi feita a muitas mãos. Cada uma delas "dando o seu pitaco". Cada pitaco desses era um protocolo, na camada de aplicação, para empacotar e enviar os dados das coisas. Outro motivo é que IoT depende bastante da conectividade sem fio.
E cada coisa que você deseja conectar à internet tem requisitos diferentes em termos de alcance, largura de banda, consumo de energia e custo.
Por exemplo, WiFi pode ser adequado para conectar TVs à internet, mas uma forma de comunicação sem fio bem mais barata, com menor largura de banda é mais adequada para conectar uma lâmpada. Assim, uma miríade de protocolos (pilhas de protocolos na verdade) surgiu para conectar as mais variadas coisas: de carros e TVs a lâmpadas e vasos de plantas.
É nessa realidade que estamos construindo a internet das coisas hoje. Além da complexidade, a segurança, usabilidade e interoperabilidade são os principais desafios de IoT. Mas isso já é assunto do próximo post. Fique ligado! Até lá.