Texto criado pela IAB - Inteligência Artificial Braçal, originária na Boa Vista, "off course". O autor, no caso o Zelador, leu artigos sobre o tema IA nos principais jornais do mundo e digitou um resumo do armazenado no seu cérebro. Então segue:
Muitos cientistas da computação e líderes tecnológicos renomados, alguns dos quais estão trabalhando arduamente para desenvolver uma forma extremamente inteligente de IA, também parecem profundamente receosos do que ela poderá vir a fazer no futuro.
Então, quando exatamente — se é que algum dia - a AGI (Artificial General Intelligence) chegará ? E ela poderia realmente ser tão transformadora a ponto de assustar as pessoas comuns? A ideia entusiasma alguns no Vale do Silício é que ela é considerada um precursor de algo ainda mais avançado: a ASI, ou superinteligência artificial - uma tecnologia que supera a inteligência humana.
O livro Genesis, de 2024, escrito por Eric Schmidt, Craig Mundy e o falecido Henry Kissinger, explora a ideia de uma tecnologia superpoderosa que se torna tão eficiente na tomada de decisões e na liderança que acabamos entregando-lhe o controle total. É uma questão de quando, não se, argumentam.
O diretor da OpenAI, Sam Altman, afirmou em dezembro de 2024 que ela chegará "mais cedo do que a maioria das pessoas no mundo imagina"
Demis Hassabis, cofundador da DeepMind, previu que isso ocorrerá nos próximos cinco a dez anos.
O fundador da Anthropic, Dario Amodei, escreveu no ano passado que seu termo preferido - "IA poderosa"- poderá estar entre nós já em 2026.
De certa forma, a IA já superou o cérebro humano. Uma ferramenta de IA generativa pode ser especialista em história medieval em um minuto e resolver equações matemáticas complexas no minuto seguinte. Algumas empresas de tecnologia afirmam que nem sempre sabem por que seus produtos respondem da maneira que respondem.
No entanto, em última análise, por mais inteligentes que as máquinas se tornem, biologicamente, o cérebro humano ainda leva vantagem. Tem cerca de 86 bilhões de neurônios e 600 trilhões de sinapses, muito mais do que os equivalentes artificiais. O cérebro não precisa fazer pausas entre as interações e está constantemente se adaptando a novas informações.
Um LLM (Large Language Model, ou Modelo de Linguagem Grande), também não possuem metacognição, o que significa que eles não sabem exatamente o que sabem. Os seres humanos parecem ter uma capacidade introspectiva, às vezes chamada de consciência, que lhes permite saber o que sabem. É uma parte fundamental da inteligência humana - e que ainda não foi reproduzida em laboratório.
Os defensores da AGI e da ASI são quase evangelistas em relação aos seus benefícios. Eles argumentam que ela encontrará novas curas para doenças mortais, resolverá as mudanças climáticas e inventará uma fonte inesgotável de energia limpa.Todos terão os melhores cuidados médicos, alimentação, transporte doméstico e tudo o mais.
Elon Musk chegou a afirmar que a IA superinteligente poderia inaugurar uma era de "renda alta universal".
Alertou Tim Berners Lee, criador da World Wide Web : "É claro que há um lado assustador. Será que essa tecnologia poderia ser sequestrada por terroristas e usada como uma arma poderosa? E se ela decidir por conta própria que a humanidade é a causa dos problemas do mundo e nos destruir? Se for mais inteligente do que você, então temos que mantê-lo sob controle. Temos que ser capazes de desligá-la."
Nos últimos anos, o avanço da inteligência artificial (IA) só veio aumentar a lista de potenciais problemas existenciais. Muitos estão profundamente preocupados com a rapidez dessa evolução.
lya Sutskever, cientista-chefe e cofundador da OpenAI, é considerado um deles. Em uma reunião, Sutskever sugeriu aos colegas que cavassem um abrigo subterrâneo para os principais cientistas da empresa antes que uma tecnologia tão poderosa fosse lançada ao mundo.
Mark Zuckerberg (Facebook) teria começado a trabalhar no Koolau Ranch, seu extenso complexo de 5 quilômetros quadrados na ilha havaiana de Kauai, já em 2014. Está previsto que inclua um abrigo, com os seus próprios suprimentos de energia e alimentos. Comprou 11 propriedades no bairro de Crescent Park, em Palo Alto, na Califórnia, adicionando um espaço subterrâneo de 650 metros quadrados.
Há também especulações em torno de outros líderes do setor de tecnologia, alguns dos quais parecem ter estado ocupados a comprar terrenos com espaços subterrâneos, prontos para serem convertidos em bunkers de luxo avaliados em milhões de reais.
Reid Hoffman, cofundador do LinkedIn, falou sobre o "seguro contra o apocalipse" e que cerca de metade dos super-ricos possui esse tipo de seguro, sendo a Nova Zelândia um destino popular para a compra de imóveis.
Será que eles estão realmente se preparando para uma guerra, para os efeitos das mudanças climáticas ou para algum outro evento catastrófico que o resto de nós ainda não conhece?
Os governos estão tomando algumas medidas de proteção. Nos Estados Unidos, o presidente Biden aprovou uma ordem executiva em 2023 que exigia que algumas empresas compartilhassem os resultados dos testes de segurança com o governo federal - embora o presidente Trump tenha revogado parte da ordem, chamando-a de "barreira" à inovação. No Reino Unido, o AI Safety Institute (Instituto de Segurança em Inteligência Artificial) foi criado há dois anos para compreender melhor os riscos apresentados pela inteligência artificial avançada.
Viver é Perigoso