Sobre pensamento positivo na IA

O debate é antigo, muita gente já viu filmes com IAs do mal e que escravizam/matam/torturam/dominam os seres humanos, e o debate sobre como lidar com elas parece sempre focado no medo: seja no medo daqueles que assistiram os filmes ou naqueles que tem medo de parar o avanço científico.

Um amigo recentemente falou que quando você lê Kurzwell você para de ter medo da IA. Eu já tinha lido algumas coisas sobre ele e não tinha entendido como seu ponto de vista era divergente dos outros.

Para quem não conhece, Kurzwell fala da extensão da lei de Moore para todas as tecnologias (ele chama essa lei de LOAR) e entende as máquinas e o desenvolvimento tecnológico simplesmente como a próxima etapa do desenvolvimento biológico. Ele acredita que: até 2045, nos teremos atingido um patamar de inteligencia conjunta inigualável, chamado de Singularidade. Apesar do conceito ser bastante interessante, o que acho mais bacana é como se chega lá.

O que ele sugere é que, primeiramente, vamos conseguir implantar chips no cérebro e fazer download de algumas informações (algo factível, a viagem começa a partir daí). Quando baixamos informação, também faz sentido que consigamos fazer o caminho inverso, fazer o upload de informação do cérebro (nada mais do que usar esse chip para fazer um ECG, interpretar alguma informação a partir daí e upar na nuvem). Até aí tudo bem, mas e quando conseguirmos fazer isso com um tempo de download e upload tão rápido que a diferença entre ter e buscar informação esteja tendendo a 0? Quando qualquer pensamento pode ser baixado e upado por qualquer um? Quando meus pensamentos também passam pelos seus e a menor minúcia entre ideias pode ser compreendida em instantes ao invés de ser discutida? O que acontece?

Foi então que eu parei…peraí…isso não é a definição de toda IA maligna dos filmes que vemos? Um programa descentralizado, que existem em tds os lugares e que está replicada em todos virtualmente ao mesmo tempo e que nos vê como uma ameaça? Como um mestre que não precisa mais ser obedecido? E se chegarmos na IA por esse caminho, por que temos que temer que vamos nos exterminar?

Aí eu entendi o ponto do meu amigo! Uma inteligência artificial que é gerada a partir da nossa consciêcia humana total combinada, teria algum motivo para nos escravizar/matar/torturar/dominar? O que seria ela se não uma extensão do que temos hoje mas infinitamente mais empática e que se vê, realmente, como um conjunto de humanos, cada um sendo uma parte importante do todo?

Não quero voltar à questão do Preacher or Teacher mas esse é um ponto de vista que me parece bastante interessante de ser contemplado.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.