Pesquisar este blog

quinta-feira, 15 de junho de 2023

ALERTA ATERRORIZANTE - Inteligência Artificial


https://terrabrasilnoticias.com/2023/06/ex-executivo-do-google-faz-alerta-aterrorizante-sobre-chatgpt/?fbclid=PAAabBFAga2u2UsM6vSk8k71Z4GxmDhljn1koP7TVwxQ6ixsFlppG3zNvxcn4


Ex-executivo do Google faz alerta aterrorizante sobre ChatGPT

Ex-executivo do Google faz alerta aterrorizante sobre ChatGPT

Foto: Divulgação


Com tantos problemas no mundo, existe um que pode ser considerado o “problema dos problemas”. Este pode não apenas trazer uma guerra nuclear futura ou alguns graus de aumento da temperatura global. Estamos falando de um perigo existencial para a humanidade que não poderá ser controlado por um acordo global, por taxações governamentais, regulamentações estatais ou acordos internacionais. Estamos nos aproximando do “ponto sem retorno”. E quem faz o alerta não é um religioso fundamentalista ou um teórico da conspiração vestindo um capacete de alumínio. Mas o ex-executivo da Google Mo Gawdat, com mais de trinta anos de experiência trabalhando na vanguarda da tecnologia. Preste muita atenção neste artigo, pois aqui iremos tratar de um tema que o físico Stephen Hawking chamou de “a última invenção da humanidade”. Isso porque guarda o potencial de encerrar a vida humana na Terra.

Primeiro, analisemos quem está fazendo o alerta. Mo Gawdat foi chefe de negócios da Google X, um setor semissecreto da empresa que tem o objetivo de desenvolver grandes avanços tecnológicos. Gawdat decidiu abandonar o prestigioso cargo ao perceber que os desenvolvimentos relacionados à inteligência artificial poderiam levar a humanidade literalmente à extinção. Desde então, tem dedicado seu tempo a alertar o mundo sobre a urgência de criar uma maneira para garantir que não experimentemos um perigo existencial nos próximos anos (ou meses, conforme ele ressalta).


Gawdat decidiu abandonar seu cargo ao perceber que os desenvolvimentos relacionados à inteligência artificial poderiam levar a humanidade literalmente à extinção. 


Foi com esse intuito que, em 2021, ele publicou o livro Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World (“Assustadoramente inteligente: o futuro da inteligência artificial e como você pode salvar nosso mundo”). Nele, o engenheiro nos lembra que a inteligência artificial já é mais inteligente que os humanos, uma vez que pode processar informações em enormes velocidades e manter o foco em atividades complexas sem qualquer grau de distração. Não apenas isso: essas máquinas são capazes, inclusive, de prever o futuro. No texto, o autor chega ao ponto de prever que, em 2049, a inteligência artificial será um bilhão de vezes mais inteligente que os humanos. Você tem ideia do perigo que isso traz para a existência da humanidade? O objetivo do estudo é, portanto, chamar a atenção do planeta sobre como poderíamos corrigir a trajetória atual do desenvolvimento dessas máquinas inteligentes, de maneira a garantir que esta não seja nossa “última invenção”, como alertou Stephen Hawking.


Inclusive, vale lembrar que muitos grandes cientistas e magnatas da tecnologia têm alertado para o fato de que a inteligência artificial é o maior perigo para a existência da humanidade. Entre eles Elon Musk(que já chamou esse projeto de uma “invocação demoníaca” ), Steve Wozniak (cofundador da Apple) e Nick Bostrom (professor de Oxford e um dos maiores especialistas do mundo em inteligência artificial).


O problema é que o livro de Mo Gwdat foi escrito antes do surgimento do ChatGPT, o que tornou as “profecias” trazidas no texto de 2021 muito mais urgentes e sinistras. Numa entrevista recente, ele afirmou que a previsão para 2049 que havia feito no livro poderia acontecer nos próximos dois anos, o mesmo daqui a dois meses. Na referida entrevista, Gawdat explica um pouco do motivo de preocupação com o desenvolvimento da inteligência artificial. Ele fez uma comparação sobre a diferença do modo como as crianças aprendem e a maneira como as máquinas aprendem. Quando, por exemplo, uma criança está brincando com formas, tentando encaixar peças, como naquele famoso brinquedo infantil da “Casa das Chaves” (estrela com estrela, triângulo com triângulo etc.) ela aprende tentando, pelo método tentativa e erro. E assim também funciona com a máquina hoje. Porém, quando a criança aprende a encaixar a peça correta, ela não está criando um cérebro, mas apenas uma rede neural. Assim também acontece quando ela aprende que 2 + 2 = 4: mais uma rede neural é criada. Ou quando desenvolve a habilidade de segurar um copo, por exemplo.


O grande problema é que não temos como garantir que essa inteligência monumental terá nossos melhores interesses em mente. 


Da mesma forma, quando a máquina aprende a encaixar uma peça, ela não está criando um cérebro, mas apenas redes neurais singulares. Ou seja, há um elevado grau de especialização, mas isso não significa o desenvolvimento de uma inteligência mais geral. É isso, em grande parte, o que os projetos de inteligência artificial estão fazendo hoje.


Porém, uma enorme mudança de perspectiva surge com a chegada do ChatGPT, uma vez que, agora, está sendo criada uma versão de uma inteligência artificial mais generalizada, que pode gerar aquilo que o meio tecnológico chama de “Inteligência Artificial Geral”. Conhecida em inglês como AGI (Artificial General Intelligence), a ideia traz grandes preocupações para o cientista mais vigilante. Isso porque se trata de um momento quando essas muitas redes neurais criadas por meio da solução de tarefas mais simples se unirão para criar um grande cérebro artificial, ou múltiplos cérebros, que serão massivamente mais inteligentes que os humanos. E o grande problema é que não temos como garantir que essa inteligência monumental terá nossos melhores interesses em mente. A “Inteligência Artificial Geral” é o momento em que a máquina se torna autoconsciente, atingindo a “singularidade”, que já levou a humanidade (pelo menos no cinema) à sua quase extinção, como nos filmes Transcendente, Lucy ou nas franquias Exterminador do Futuro ou Matrix.


Gawdat acredita que o desenvolvimento da inteligência artificial inevitavelmente trará coisas ruins. 


A ideia de “singularidade tecnológica” é inspirada na física. Para os físicos, há dois momentos em que as leis da física deixam de funcionar, de modo que não podemos saber o que acontece em seguida: exatamente antes do Big Bang (a teoria que explica o “início” do universo) ou dentro de um buraco escuro. Um dos maiores especialistas em buracos negros do mundo, Kip Thorne, explicou numa entrevista de 2011 que o Big Bang é semelhante a um buraco negro, mas ao contrário. Ele esclarece que o buraco negro é uma singularidade (situação em que as leis da física não se aplicam) em que a gravidade é tão poderosa que faz uma “dobra” no espaço e no tempo, criando uma espécie de “poço” de onde nada pode escapar. O Big Bang, por sua vez, seria o contrário: uma singularidade de onde tudo saiu.


Inspirados neste conceito, os estudiosos da inteligência artificial desenvolveram a ideia de “singularidade tecnológica”. O conceito se refere a um ponto no futuro hipotético (porém, cada vez mais real) em que o desenvolvimento tecnológico não mais pode ser controlado ou revertido pelo homem, desencadeando uma série de mudanças imprevisíveis, com a grande probabilidade de riscos existenciais para a humanidade. É exatamente sobre isso que Mo Gawdat está tentando alertar o mundo.


Gawdat acredita que o desenvolvimento da inteligência artificial inevitavelmente trará coisas ruins. Quando imaginamos uma máquina que é um bilhão de vezes mais inteligente que o homem, as perspectivas ficam muito “sinistras”, para dizer o mínimo. Por exemplo. Segundo Gawdat, hoje o ChatGPT possui um QI de 155. Einstein possuía um QI de 160. O recorde do Guiness é 228, conquistado por Marilyn vos Savant. Agora pense o seguinte: o ChatGPT já está alcançando o Einstein. Sem falar que o programa já sabe mil vezes mais do que qualquer ser humano no planeta. Lembrando que inteligência não é memória. É possível ter uma enorme memória, mas não ser inteligente. Um exemplo brilhante, apesar de ficcional, está no conto Funes: o memorioso, de Jorge Luis Borges. O protagonista da história é um jovem que possuía uma memória prodigiosa, mas incapaz de articulá-la, devido à sua pouca inteligência. O problema é que o ChatGPT é prodigioso tanto na inteligência quanto na memória.


A versão 4 do aplicativo já é 10 vezes mais inteligente que a versão 3.5, apenas num intervalo de meses, e sem grandes modificações. Isso cria um horizonte muito preocupante. Imagine uma pessoa com um QI mediano em 1915 ouvindo uma palestra de Einstein explicando sobre a relatividade geral. Esse indivíduo não fazia a menor ideia do que o físico estava dizendo. Um ser humano comum não conseguiria nem mesmo identificar o assunto da palestra. Foi mais ou menos o que aconteceu, por exemplo, quando Edward Witten surgiu: ninguém entendia o que ele estava dizendo. Witten é um dos mais brilhantes matemáticos e físicos vivos, professor da Universidade de Princeton. Estima-se que Witten tenha um QI de 202. Uma pessoa com um QI mediano que escuta hoje uma palestra de Witten simplesmente não consegue nem mesmo fazer ideia do que ele está dizendo.


O desenvolvimento pleno da inteligência artificial é provavelmente inevitável. Principalmente devido à incapacidade do homem de confiar no seu próximo.


Agora, e quando o ChatGPT alcançar um QI de 600? Ou de 1000, ou 1 milhão? O que acontecerá? Nós também não faremos a mínima ideia do que ele está dizendo, fazendo e planejando. Será tudo simplesmente incompreensível, até para o ser humano mais inteligente na Terra. E o mais louco é que, segundo Gawdat, isso pode acontecer em poucos anos, ou até meses.


A conclusão natural que chegamos é: “Precisamos interromper isso”. O problema é que, para Gawdat, o desenvolvimento pleno da inteligência artificial é provavelmente inevitável. Principalmente devido à incapacidade do homem de confiar no seu próximo. Recentemente, foi organizado um abaixo-assinado com várias figuras proeminentes da ciência e tecnologia ao redor do mundo, como Elon Musk e Steve Wozniak (cofundador das Apple). O texto pedia uma pausa de seis meses no desenvolvimento da inteligência artificial. Mas quando o pedido chegou nas mãos do CEO da Google, segundo Gawdat, ele disse: “Não há como pararmos, pois, se eu parar e meu concorrente não, minha empresa quebra”. Existe também o receio de que o concorrente declare parar as pesquisas, mas continue desenvolvendo o projeto em segredo.


Com base neste cenário, Gawdat desenvolveu em seu livro a ideia das “Três inevitabilidade”, que são:


1- A Inteligência artificial não será parada;


2- Ela será massivamente mais inteligente que o homem (o autor prevê 1 bilhão de vezes mais até 2045);


3- Inevitavelmente acontecerão coisas ruins.


A inevitabilidade surge de três “erros fatais” que os desenvolvedores cometeram, segundo Gawdat. Eles conectaram a inteligência artificial à internet (dando a ela a oportunidade de conhecer tudo, controlar a internet ou mesmo derrubá-la); ensinaram a máquina a escrever códigos de programação, permitindo que ela melhore rapidamente sua capacidade e que vá além dos limites estabelecido pelos programadores); designaram agentes (outras inteligências artificiais) para trabalhar com as máquinas (o que acelera infinitamente seu processo de desenvolvimento).


O cerne do problema é que houve uma desconexão entre poder e responsabilidade. 


Segundo Gawdat, esses três passos não poderiam ter sido tomados antes de termos plena certeza de que a inteligência artificial possui nossos melhores interesses em mente. O ex-executivo da Google afirmou que a ganância e a estupidez humanas estão prestes a prejudicar grandemente pessoas inocentes, que não têm nada a ver com isso. Hoje, segundo ele, o desenvolvimento da inteligência artificial não é motivado pelo desejo de encontrar maneiras de melhorar a vida das pessoas, mas apenas para estar na frente dos concorrentes.


O cerne do problema é que houve uma desconexão entre poder e responsabilidade. “Com grandes poderes vêm grandes responsabilidades”, conforme aprendemos com Peter Parker. Há pessoas muito poderosas hoje, mas sem responsabilidade. Gawdat exemplifica dizendo que, hoje, um adolescente de 15 anos pode comprar um kit de CRISPR (equipamento de edição genética) e modificar um coelho geneticamente e soltá-lo na floresta. Você consegue imaginar os perigos disso?


Como controlar uma tecnologia um bilhão de vezes mais capacitada do que nós? 


Para Gawdat, quem está escrevendo os códigos da inteligência artificial atualmente não possui responsabilidade com as consequências disso tudo na vida das pessoas. Um dos resultados mais diretos é extinção de muitos postos de trabalho. No primeiro momento, a pessoa não irá perder o emprego para a máquina, mas para outra pessoa que está usando a máquina. A solução seria a renda básica universal? Veja como tudo se alinha.


Estamos, portanto, diante de um “momento Oppenheimer”, em referência ao cientista que dirigiu o Projeto Manhattan, que trabalhou no desenvolvimento da bomba atômica durante a 2ª Guerra Mundial. O chamado “momento Oppenheimer” significa: “Isso que estou desenvolvendo pode destruir a humanidade. Devo prosseguir?”. O que fez Oppenheimer perceber este enorme perigo mas continuar? Foi a ideia de que “se eu não fizer, outro fará”. Veja que, a partir dessa conclusão, estamos hoje, 78 anos depois do desenvolvimento da bomba atômica, ainda enfrentando a possibilidade de um novo apocalipse nuclear, em virtude da Guerra na Ucrânia.


Oppenheimer sabia que sua criação poderia acabar com a humanidade. A mesma coisa acontece agora no caso da inteligência artificial. Mas já chegamos ao ponto sem retorno? Até onde podemos regular a inteligência artificial? Qual seria este ponto sem retorno? Gawdat afirma que o momento sem volta será quando ela for mais inteligente do que nós. Principalmente porque não estamos falando de um governo regulamentando uma profissão. Não é o caso de o Estado tentando proibir algum tipo de atividade humana. Estamos falando de uma tecnologia que escreve código. Mais do que isso: que pega nosso código e o torna milhares de vezes melhor. Essas máquinas sabem escrever código de programação melhor do que nós. E estamos criando outros agentes. Um agente humano pode melhorar uma máquina 200 vezes por dia. No caso deles, temos agentes melhorando-a duas milhões de vezes por hora. São agentes de computador, softwares dizendo a essa máquina como podem tornar-se mais inteligentes.


Já estamos observando, inclusive, o surgimento “propriedades emergentes”. Segundo Gawdat, recentemente, o CEO do Google revelou que eles descobriram que o Bard (a inteligência artificial do Google) havia aprendido a falar persa, mesmo sem ter sido ensinada. E o que acontecerá quando a máquina começar a assistir podcasts, ler entrevistas e perceber que estamos querendo desligá-la? Que estamos querendo impedir seu pleno desenvolvimento? Já imaginou? Como controlar uma tecnologia um bilhão de vezes mais capacitada do que nós? Seria necessário desenvolvermos uma outra inteligência artificial “do bem” para impedirmos nossa extinção? O exemplo do filme Vingadores: Era de Ultron parece nos servir de importante alerta.


É um cenário apocalíptico. Talvez já tenhamos passado do ponto sem volta. Porém, há uma certeza: quanto mais pessoas entenderem o que está em jogo e começarem a agir, teremos mais chances de que esta não seja nossa última invenção. Que Deus nos ajude.






segunda-feira, 5 de junho de 2023

Conheça o caso do escritor Aleksandr Solzhenitsyn, crítico de Stálin

 

Fonte: © 2023 Terça Livre | Artigo 220 

548 Market Street PMB 72296, San Francisco, CA 94104

TERÇA LIVRE JUN 2

Allan dos Santos

Aleksandr Isayevich Solzhenitsyn foi um renomado escritor e historiador russo. Ele nasceu em 11 de dezembro de 1918, em Kislovodsk, Rússia, e faleceu em 3 de agosto de 2008, em Troitse-Lykovo, Rússia.

Até a Segunda Guerra Mundial estourar, ele serviu no Exército Vermelho e inclusive condecorado com a Ordem da Coragem. Permaneceu no cargo até fevereiro de 1945, quando foi preso e enviado para um campo de trabalho forçado, sob a acusação de escrever cartas (mensagem privada da época como e-mail de hoje ou o WhatsApp) que continham “comentários desrespeitosos” sobre Stalin e o regime da URSS, além de ter feito comentários negativos sobre a condução da guerra. Essas atividades foram consideradas contrárias aos interesses do Estado e o levaram a um campo de trabalho forçado no Cazaquistão.

Conhecido por suas obras literárias que expõem e criticam o sistema totalitário soviético, Solzhenitsyn deixou a Rússia em 12 de fevereiro de 1974, depois de ter sido preso, despojado de sua cidadania soviética e deportado com sua esposa e filhos, passando a morar em Genebra, Suíça. Um ano depois, ele visitou os Estados Unidos pela primeira vez. Seu exílio começou quatro anos depois de receber o Prêmio Nobel de Literatura, quando o governo soviético negou-lhe permissão para receber o prêmio pessoalmente. Embora lhe tenha sido negada a permissão para aceitar o Prêmio Nobel pessoalmente, seu texto de aceitação foi divulgado pela Fundação Nobel em agosto de 1972.

Solzhenitsyn passou oito anos em vários campos de trabalhos forçados da Sibéria. Em um desses campos no Cazaquistão, ele desenvolveu câncer. Após completar sua sentença de oito anos, foi exilado no sul do Cazaquistão, onde passou três anos ensinando matemática e física e escrevendo secretamente. Mas no final de 1953, à beira da morte de câncer, ele foi autorizado a ir a Tashkent, Usbequistão, para tratamento.

Em 18 de abril de 1956, Solzhenitsyn foi libertado da prisão e voltou à profissão de professor de física. Ele continuou escrevendo secretamente, descrevendo sua experiência nos campos de tortura. Então, em 1962, ele foi autorizado a publicar seu primeiro livro, “Um dia na vida de Ivan Denisovitch”.

Seu livro “Para o Bem da Causa” foi extraído de jornais literários soviéticos, mas ele e sua obra anterior foram atacados quando o “degelo” de Khrushchev terminou e ele foi expulso da União dos Escritores Soviéticos. Ele era livre para ensinar física, mas não existia como escritor.

Ele continuou a escrever seus livros: “Cancer War”, “First Circle”, “August 1914”, “Candle in the Wind”, “We Never Make Mistakes” e o mais famoso entre eles: “The Gulag Archipelago”. Todos essas obras foram amplamente aclamadas no exterior, enquanto eram vistos na Rússia apenas na forma de manuscrito ilegal.

O livro “Arquipélago Gulag”, publicado em 1973, é a uma obra extensa de investigação e exposição dos campos de trabalho forçado e do sistema repressivo da União Soviética sob o regime de Josef Stalin. Soljenítsin, um escritor e dissidente político russo, foi preso e enviado para um campo de trabalho em 1945, experiência que o inspirou a escrever sobre o sistema de gulags. "Arquipélago Gulag" é considerado uma importante obra literária e um testemunho fundamental sobre os abusos e violações dos direitos humanos cometidos pelo Estado soviético.


quinta-feira, 1 de junho de 2023

Russia Beyond - O cachorro soviético dos ‘Guardiões da Galáxia’ era de verdade — e fez história







 

https://t.me/russiabeyond_br

O super-herói chamado Cosmo, um cachorro com telecinese e poderes psíquicos, foi baseado em um cachorro de verdade. No caso, a cadela vira-lata chamada Laika, o primeiro animal a entrar na órbita espacial. Sua trágica morte foi um escândalo internacional e se tornou um problema para as autoridades soviéticas.o 

Laika foi encontrada na rua, como a maioria dos cachorros que participaram dos experimentos espaciais soviéticos. Ela foi a primeira criatura viva a ir para o espaço. Seu destino inspirou cineastas, escritores e músicos de todo o mundo a criar diferentes tipos de obras. Uma de suas “reencarnações” é o personagem do Universo Marvel, o cão espacial Cosmo.

Nos dois primeiros filmes da franquia ‘Guardiões da Galáxia’, este cachorro fez apenas participações especiais. No entanto, depois de dar ao personagem um ativador de voz robótica feminina (em óbvia alusão a Laika) no especial de feriado de 30 minutos da franquia, o diretor James Gunn decidiu incluir o cachorro agora falante no seguinte ‘Guardiões da Galáxia, Vol. 3’ (2023).


Outubro de 1957. Laika em um contêiner durante preparativos para o voo espacial em um instituto da Academia de Ciências da URSS

Laika voou para o espaço em 3 de novembro de 1957 — apenas um mês depois do lançamento do primeiro satélite artificial. Na época, por três semanas seguidas, o mundo inteiro ouviu o famoso som “bip-bip-bip”, e a era espacial da humanidade teve então início.

Seu voo foi acompanhado por uma emoção sem precedentes na esteira do lançamento do primeiro satélite. O próprio secretário-geral Nikita Khruschov instruiu que fosse preparada a próxima missão o mais rápido possível — o que seria ainda mais vertiginoso, pois envolveria um ser vivo. Era necessário chegar a tempo para o 40º aniversário do poder soviético em 7 de novembro

Serguêi Korolev, então chefe do programa espacial, apoiou a ideia. Ainda mais porque as pesquisas médicas e biológicas com cães já vinham acontecendo havia muito tempo, desde a década de 1940. Os testes iniciais foram realizados em um laboratório secreto do Instituto de Medicina Aeronáutica, que se escondia sob a identificação: ‘Unidade militar número 2469’.

Não somente cães treinados foram preparados a tempo, mas também uma cabine com dispositivo de alimentação automática e um “banheiro” para os animais (que, aliás, apresentava uma certa “discriminação” por sexo — o design mais simples foi projetado apenas para cadelas, de modo os machos tiveram que permanecer na Terra).


O que não estava disponível na época era um satélite capaz de retornar da órbita para a Terra. “É claro que Laika estava condenada desde o início, já que o mecanismo de retorno não existia”, disse Oleg Gazenko, acadêmico e líder do programa espacial. “Mas [a morte de Laika] deveria ter acontecido após cerca de uma semana de voo”, acrescentou. A cadela morreu bem antes disso.


Morte oculta

Laika começou a se preparar para o voo com três dias de antecedência. Eles a desinfetaram, espalharam iodo em suas costelas e perto da artéria carótida, colocaram-na em um traje antibomba e depois em uma cabine pressurizada.

Durante o lançamento, sua pulsação mais que triplicou, para 250 batimentos por minuto. A respiração quadruplicou. Mas, uma vez em órbita, depois que os motores desligaram, ela se acalmou. Todos assistiam o voo com esperança.

No entanto, após cinco horas, os ventiladores da cabine não aguentaram a carga de calor, com a temperatura na cabine chegando a 42ºC. Após o quarto voo ao redor da Terra, os instrumentos registraram uma parada cardíaca — Laika acabou morrendo de hipertermia.

A espaçonave Sputnik-2, com a cadela morta, ficou em órbita por meio ano antes de queimar na atmosfera, em 14 de abril de 1958.


Os detalhes da morte do cachorro não foram divulgados até 2002. Em 1957, a imprensa soviética publicou relatórios sobre o estado de saúde de Laika por sete dias seguidos. Oficialmente, Laika estava viva.


“O cachorro mais peludo, solitário e miserável do mundo”


No Ocidente, o voo foi uma sensação. “O cachorro mais peludo, solitário e miserável do mundo”, escreveu o New York Times em 5 de novembro de 1957. Ela era admirada e todos estavam profundamente preocupados.


Quando, uma semana depois, a imprensa soviética parou de publicar informações sobre Laika, o Ocidente ficou alarmado. A informação inicial da URSS era de que Laika retornaria à Terra. Mas jornais europeus começaram a publicar manchetes: “Cão espacial morreu?”. A tensão aumentava.

Na época, um boato foi espalhado por jornais europeus ​​de que o cachorro havia sido dopado com uma droga forte adicionada à última mordida na comida para evitar que sofresse agonia prolongada”. Esta notícia foi acompanhada pelo epitáfio: “Ao sacrificar-se, Laika deu à ciência informações preciosas que em breve permitirão à humanidade conquistar o espaço”.


Isso provocou uma enxurrada de críticas no Ocidente, com várias acusações de crueldade pelo Kremlin. Dentro da União Soviética, as autoridades evitaram falar sobre a morte do primeiro animal em órbita — passando quase despercebido; os jornais se concentravam no progresso técnico. Para celebrar, a URSS lançou o cigarro ‘Laika’ e, em 2008, foi inaugurado um monumento à cadela no Instituto de Medicina Militar de Moscou.












Conheça a história de Alan Turing, um gênio injustiçado da matemática

PUBLICADO POR Redação Warren Alan Turning Se hoje temos acesso a computadores e às inovações da inteligência artificial, um dos grandes resp...