Por que a computação quântica pode ser a próxima curva na estrada de Big Data

Autor: Judy Howell
Data De Criação: 27 Julho 2021
Data De Atualização: 11 Poderia 2024
Anonim
Por que a computação quântica pode ser a próxima curva na estrada de Big Data - Tecnologia
Por que a computação quântica pode ser a próxima curva na estrada de Big Data - Tecnologia

Contente


Fonte: Krishnacreations / Dreamstime.com

Leve embora:

A tecnologia da computação progrediu no mesmo caminho por décadas, mas a computação quântica é um grande afastamento do que veio antes dela.

Em 28 de setembro de 2012, o New York Times publicou uma matéria, "Os australianos surgem na busca por uma nova classe de computadores", sobre o que parece ser um avanço na corrida para construir um computador quântico em funcionamento.

Embora a definição de um computador quântico alude a muitos leitores, basta dizer que um computador quântico em funcionamento será revolucionário no mundo da tecnologia.

A tecnologia de computadores está subjacente às mudanças no mundo que experimentamos nos últimos 50 anos - a economia global, a internet, a fotografia digital, a robótica, os smartphones e o comércio eletrônico, todos dependem de computadores. É importante, então, acredito que tenhamos um entendimento básico da tecnologia para entender para onde a computação quântica pode estar nos levando.


No começo, havia o ENIAC

Então, vamos começar do começo. O primeiro computador eletrônico em funcionamento foi o Integrador Numérico Eletrônico e o Computador, mais conhecido como ENIAC. Foi desenvolvido na Moore School of Engineering da Universidade da Pensilvânia, sob financiamento do Exército dos EUA, para calcular as trajetórias de artilharia na Segunda Guerra Mundial. (Além de ser uma maravilha da engenharia, o ENIAC abriu caminho para muitos dos principais projetos de TI nos anos seguintes, mas era tarde demais para a Segunda Guerra Mundial, que terminou antes que o computador fosse concluído.)

O coração da capacidade de processamento da ENIAC eram os tubos de vácuo - 17.468 deles. Como um tubo de vácuo tem apenas dois estados - desligado e ligado (também conhecido como 0/1) - os computadores adotaram aritmética binária, em vez de aritmética decimal, em que os valores vão de 0 a 9. Cada uma dessas representações individuais é chamada de bit, abreviação de "dígito binário". (Para saber mais sobre a história do ENIAC, consulte As mulheres do ENIAC: pioneiras em programação.)


Era obviamente necessário que houvesse alguma maneira de representar os números, letras e símbolos com os quais estamos familiarizados, portanto, um esquema de codificação proposto pelo American National Standards Institute (ANSI), conhecido como American Standard Character Information Interchange (ASCII), eventualmente se tornou o padrão. Sob ASCII, combinamos 8 bits para formar um caractere ou byte em um esquema predeterminado. Existem 256 combinações que representam números, letras maiúsculas, minúsculas e caracteres especiais.

Confuso? Não se preocupe: o usuário comum de computador não precisa saber os detalhes. É apresentado aqui apenas como um bloco de construção.

Em seguida, os computadores progrediram rapidamente dos tubos de vácuo para os transistores (William Shockley e sua equipe dos Bell Labs ganharam o Prêmio Nobel pelo desenvolvimento de transistores) e depois a capacidade de colocar vários transistores em um chip para criar circuitos integrados. Não demorou muito para que esses circuitos incluíssem milhares ou até milhões de transistores em um chip, chamado de integração em larga escala. Essas categorias: 1) tubos de vácuo, 2) transistores, 3) ICs e 4) VLSI são consideradas as quatro gerações de desenvolvimento de hardware, independentemente de quantos transistores possam ser presos em um chip.

Sem erros, sem estresse - seu guia passo a passo para criar software que muda vidas sem destruir sua vida

Você não pode melhorar suas habilidades de programação quando ninguém se importa com a qualidade do software.

Desde que o ENIAC "entrou no ar" em 1946 e por todas essas gerações, o uso subjacente da aritmética binária baseada em tubo de vácuo permaneceu em vigor. A computação quântica representa uma ruptura radical com essa metodologia.

Computação Quântica: A Grande Quebra

Computadores quânticos aproveitam o poder de átomos e moléculas para processar e executar tarefas de memória em uma velocidade muito mais rápida que um computador baseado em silício ... pelo menos teoricamente. Embora existam alguns computadores quânticos básicos capazes de realizar cálculos específicos, é provável que um modelo prático ainda esteja a vários anos de distância. Mas, se surgirem, poderão mudar drasticamente o poder de processamento dos computadores.

Como resultado desse poder, a computação quântica tem o poder de melhorar bastante o processamento de big data, porque, pelo menos teoricamente, deve se destacar no processamento massivamente paralelo de dados não estruturados.

Os computadores continuaram com o processamento binário por um motivo: não havia realmente nenhum motivo para mexer com algo que funcionava. Afinal, as velocidades de processamento de computadores dobram a cada 18 meses a dois anos. Em 1965, o vice-presidente da Intel, Gordon Moore, escreveu um artigo que detalhava o que ficou conhecido como lei de Moore, no qual afirmou que a densidade de processadores dobraria a cada dois anos, resultando em uma duplicação da velocidade de processamento. Embora ele tenha escrito que previu que essa tendência duraria 10 anos, ela - notavelmente - continuou até os dias atuais. (Alguns pioneiros da computação quebraram o molde binário. Saiba mais em Por que não computadores ternários?)

Mas o aumento na velocidade de processamento está longe de ser o único fator na melhoria do desempenho do computador. As melhorias na tecnologia de armazenamento e o advento das telecomunicações foram de importância quase igual. Nos primeiros dias dos computadores pessoais, os disquetes possuíam 140.000 caracteres e o primeiro disco rígido que comprei possuía 10 milhões de caracteres. (Também me custou US $ 5.500 e era do tamanho de um computador desktop). Felizmente, o armazenamento ficou muito maior em capacidade, menor em tamanho, mais rápido em velocidade de transferência e muito, muito mais barato.

O grande aumento de capacidade nos permite coletar informações em áreas nas quais anteriormente só podíamos arranhar a superfície ou nem mesmo nos aprofundar. Isso inclui tópicos com muitos dados, como clima, genética, linguística, simulação científica e pesquisa em saúde, entre muitos outros.

Compreendendo o Big Data

Cada vez mais, as explorações de big data estão descobrindo que, apesar de todos os ganhos em poder de processamento que obtivemos, isso simplesmente não é suficiente. Se conseguirmos entender essa tremenda quantidade de dados que estamos acumulando, precisaremos de novas maneiras de analisá-lo e apresentá-lo, além de computadores mais rápidos para processá-lo. Os computadores quânticos podem não estar prontos para a ação, mas os especialistas vêm observando cada progressão como o próximo nível de poder de processamento do computador. Não podemos dizer com certeza, mas a próxima grande mudança na tecnologia de computadores pode ser um afastamento real dos chips de silício que nos transportaram até agora.