Era da informação - Information Age

Um laptop se conecta à Internet para exibir informações da Wikipedia ; compartilhar informações entre sistemas de computador é uma marca registrada da Era da Informação.

A Era da Informação (também conhecida como Era do Computador , Era Digital ou Era da Nova Mídia ) é um período histórico que começou em meados do século 20, caracterizado por uma rápida mudança de época da indústria tradicional estabelecida pela Revolução Industrial para uma economia baseado principalmente na tecnologia da informação . O início da Era da Informação pode estar associado ao desenvolvimento da tecnologia de transistores .

De acordo com a Rede de Administração Pública das Nações Unidas , a Era da Informação foi formada por capitalizando em computador microminiaturization avanços, o que levaria a modernizado informações e processos de comunicação mediante o uso mais amplo na sociedade tornando-se a força motriz da evolução social .

Visão geral dos primeiros desenvolvimentos

Expansão da biblioteca e lei de Moore

A expansão da biblioteca foi calculada em 1945 por Fremont Rider para dobrar de capacidade a cada 16 anos quando houver espaço suficiente disponível. Ele defendeu a substituição de trabalhos impressos volumosos e decadentes por fotografias analógicas de microformas miniaturizadas , que poderiam ser duplicadas sob demanda para usuários de bibliotecas e outras instituições.

Rider não previu, no entanto, a tecnologia digital que se seguiria décadas depois para substituir a microforma analógica por imagem digital , armazenamento e mídia de transmissão , por meio da qual grandes aumentos na rapidez do crescimento da informação seriam possíveis por meio de tecnologias digitais automatizadas e potencialmente sem perdas . Conseqüentemente, a lei de Moore , formulada por volta de 1965, calcularia que o número de transistores em um circuito integrado denso dobra aproximadamente a cada dois anos.

No início da década de 1980, junto com as melhorias no poder da computação , a proliferação dos computadores pessoais menores e mais baratos permitiu o acesso imediato às informações e a capacidade de compartilhá - las e armazená- las para um número cada vez maior de trabalhadores. A conectividade entre os computadores dentro das organizações permitiu que os funcionários em diferentes níveis acessassem maiores quantidades de informações.

Armazenamento de informações e lei de Kryder

Hilbert e López (2011). A capacidade tecnológica mundial para armazenar, comunicar e calcular informações. Science, 332 (6025), 60-65. https://science.sciencemag.org/content/sci/332/6025/60.full.pdf

A capacidade tecnológica mundial para armazenar informações cresceu de 2,6 ( compactados de forma otimizada ) exabytes (EB) em 1986 para 15,8 EB em 1993; mais de 54,5 EB em 2000; e para 295 EB (compactado de forma otimizada) em 2007. Este é o equivalente informativo a menos de um CD-ROM de 730 megabytes (MB) por pessoa em 1986 (539 MB por pessoa); cerca de quatro CD-ROM por pessoa em 1993; doze CD-ROM por pessoa no ano 2000; e quase sessenta e um CD-ROM por pessoa em 2007. Estima-se que a capacidade mundial de armazenar informações atingiu 5 zetabytes em 2014, o equivalente informativo de 4.500 pilhas de livros impressos da terra ao sol .

A quantidade de dados digitais armazenados parece estar crescendo de forma aproximadamente exponencial , uma reminiscência da lei de Moore . Como tal, a lei de Kryder prescreve que a quantidade de espaço de armazenamento disponível parece estar crescendo aproximadamente exponencialmente.

Transmissão de informação

A capacidade tecnológica mundial de receber informações por meio de redes de transmissão unilateral era de 432 exabytes de informações ( compactadas de forma otimizada ) em 1986; 715 exabytes (compactados de forma otimizada) em 1993; 1,2 zetabytes (compactados de forma otimizada) em 2000; e 1,9 zetabytes em 2007, o equivalente a informações de 174 jornais por pessoa por dia.

A capacidade efetiva mundial de trocar informações por meio de redes de telecomunicações bidirecionais era de 281 petabytes de informações (compactadas de forma otimizada) em 1986; 471 petabytes em 1993; 2.2 exabytes (compactados de forma otimizada) em 2000; e 65 exabytes (compactados de forma otimizada) em 2007, o equivalente a 6 jornais por pessoa por dia. Na década de 1990, a disseminação da Internet causou um salto repentino no acesso e na capacidade de compartilhar informações em empresas e residências em todo o mundo. A tecnologia estava se desenvolvendo tão rapidamente que um computador que custava $ 3.000 em 1997 custaria $ 2.000 dois anos depois e $ 1.000 no ano seguinte.

Computação

A capacidade tecnológica mundial de computar informações com computadores de uso geral guiados por humanos cresceu de 3,0 × 10 8 MIPS em 1986 para 4,4 × 10 9 MIPS em 1993; para 2,9 × 10 11 MIPS em 2000; para 6,4 × 10 12 MIPS em 2007. Um artigo publicado na revista Trends in Ecology and Evolution em 2016 relatou que:

[A tecnologia digital ] excedeu em muito a capacidade cognitiva de qualquer ser humano e o fez uma década antes do previsto. Em termos de capacidade, existem duas medidas importantes: o número de operações que um sistema pode realizar e a quantidade de informações que pode ser armazenada. O número de operações sinápticas por segundo em um cérebro humano foi estimado entre 10 ^ 15 e 10 ^ 17. Embora esse número seja impressionante, mesmo em 2007, os computadores de uso geral da humanidade eram capazes de executar bem mais de 10 ^ 18 instruções por segundo. As estimativas sugerem que a capacidade de armazenamento de um cérebro humano individual é de cerca de 10 ^ 12 bytes. Em uma base per capita, isso é correspondido pelo armazenamento digital atual (5x10 ^ 21 bytes por 7,2x10 ^ 9 pessoas).

Diferentes conceitualizações de estágios

Três estágios da Era da Informação

Existem diferentes conceituações da Era da Informação. Alguns enfocam a evolução da informação ao longo das eras, distinguindo entre a Era da Informação Primária e a Era da Informação Secundária. A informação na Era da Informação Primária era tratada por jornais , rádio e televisão . A Era da Informação Secundária foi desenvolvida pela Internet , televisões por satélite e telefones celulares . A Era da Informação Terciária surgiu pela mídia da Era da Informação Primária interconectada com a mídia da Era da Informação Secundária como vivida atualmente.

LongWavesThreeParadigms.jpg

Outros o classificam em termos das bem estabelecidas ondas longas de Schumpeter ou ondas de Kondratiev . Aqui autores distinguem três meta de longo prazo diferentes paradigmas , cada um com diferentes ondas longas. O primeiro focou na transformação de materiais, incluindo pedra , bronze e ferro . A segunda, freqüentemente chamada de revolução industrial , foi dedicada à transformação de energia, incluindo água , vapor , eletricidade e energia de combustão . Por fim, o metaparadigma mais recente visa transformar a informação . Tudo começou com a proliferação de comunicação e dados armazenados e agora entrou na era dos algoritmos , que visa criar processos automatizados para converter as informações existentes em conhecimento acionável.

Economia

Eventualmente, a tecnologia da informação e comunicação (TIC) - isto é , computadores , maquinário computadorizado , fibra óptica , satélites de comunicação , a Internet e outras ferramentas de TIC - tornou-se uma parte significativa da economia mundial , à medida que o desenvolvimento de microcomputadores mudou muito muitos negócios e indústrias . Nicholas Negroponte captou a essência dessas mudanças em seu livro de 1995, Being Digital , no qual discute as semelhanças e diferenças entre produtos feitos de átomos e produtos feitos de bits . Em essência, uma cópia de um produto feito de bits pode ser feita de forma barata e rápida e, em seguida, expedida, enviada através do país ou do mundo a um custo muito baixo.

Distribuição de empregos e renda

A Era da Informação afetou a força de trabalho de várias maneiras, como obrigar os trabalhadores a competir em um mercado de trabalho global . Uma das preocupações mais evidentes é a substituição da mão de obra humana por computadores que podem fazer seu trabalho de forma mais rápida e eficaz, criando uma situação em que os indivíduos que realizam tarefas que podem ser facilmente automatizadas são forçados a encontrar um emprego onde seu trabalho não é tão descartável. Isso cria problemas especialmente para aqueles em cidades industriais , onde as soluções normalmente envolvem redução do tempo de trabalho , o que muitas vezes é altamente resistido. Assim, indivíduos que perdem seus empregos podem ser pressionados a ingressar em "trabalhadores da mente" (por exemplo , engenheiros , médicos , advogados , professores , professores , cientistas , executivos , jornalistas , consultores ), que são capazes de competir com sucesso no mercado mundial e receber salários (relativamente) altos.

Junto com a automação, os empregos tradicionalmente associados à classe média (por exemplo , linha de montagem , processamento de dados , gerenciamento e supervisão ) também começaram a desaparecer como resultado da terceirização . Incapazes de competir com os dos países em desenvolvimento , os trabalhadores da produção e dos serviços nas sociedades pós-industriais (ou seja, desenvolvidas) perdem seus empregos por meio da terceirização, aceitam cortes salariais ou se contentam com empregos de baixa qualificação e baixos salários . No passado, o destino econômico dos indivíduos estaria vinculado ao de sua nação. Por exemplo, os trabalhadores nos Estados Unidos já foram bem pagos em comparação com os de outros países. Com o advento da Era da Informação e as melhorias na comunicação, esse não é mais o caso, já que os trabalhadores precisam competir em um mercado de trabalho global , no qual os salários dependem menos do sucesso ou do fracasso das economias individuais.

Ao efetivar uma força de trabalho globalizada , a internet também permitiu maiores oportunidades nos países em desenvolvimento , possibilitando que os trabalhadores desses lugares prestassem serviços presenciais, competindo, portanto, diretamente com seus colegas em outras nações. Essa vantagem competitiva se traduz em maiores oportunidades e salários mais altos.

Automação, produtividade e ganho de empregos

A Era da Informação afetou a força de trabalho na medida em que a automação e a informatização resultaram em maior produtividade, juntamente com a perda líquida de empregos na manufatura . Nos Estados Unidos, por exemplo, de janeiro de 1972 a agosto de 2010, o número de pessoas empregadas na indústria caiu de 17.500.000 para 11.500.000, enquanto o valor da manufatura aumentou 270%.

Embora inicialmente parecesse que a perda de empregos no setor industrial pudesse ser parcialmente compensada pelo rápido crescimento de empregos em tecnologia da informação , a recessão de março de 2001 prenunciava uma queda acentuada no número de empregos no setor. Esse padrão de redução de empregos continuaria até 2003, e os dados mostram que, em geral, a tecnologia cria mais empregos do que destrói, mesmo no curto prazo.

Indústria intensiva em informação

A indústria tornou-se mais intensiva em informação e menos intensiva em mão -de- obra - e intensiva em capital . Isso deixou implicações importantes para a força de trabalho , uma vez que os trabalhadores se tornaram cada vez mais produtivos à medida que o valor do seu trabalho diminui. Para o próprio sistema capitalista , o valor do trabalho diminui, o valor do capital aumenta.

No modelo clássico , os investimentos em capital humano e financeiro são importantes preditores do desempenho de um novo empreendimento . No entanto, conforme demonstrado por Mark Zuckerberg e o Facebook , agora parece possível para um grupo de pessoas relativamente inexperientes com capital limitado ter sucesso em grande escala.

Inovações

Uma visualização das várias rotas por meio de uma parte da Internet.

A Era da Informação foi possibilitada pela tecnologia desenvolvida na Revolução Digital , que por sua vez foi possibilitada com base nos desenvolvimentos da Revolução Tecnológica .

Transistores

O início da Era da Informação pode estar associado ao desenvolvimento da tecnologia de transistores . O conceito de um transistor de efeito de campo foi teorizado pela primeira vez por Julius Edgar Lilienfeld em 1925. O primeiro transistor prático foi o transistor de ponto de contato , inventado pelos engenheiros Walter Houser Brattain e John Bardeen enquanto trabalhava para William Shockley no Bell Labs em 1947. Este foi um avanço que lançou as bases para a tecnologia moderna. A equipe de pesquisa de Shockley também inventou o transistor de junção bipolar em 1952. O tipo de transistor mais amplamente usado é o transistor de efeito de campo semicondutor de óxido metálico (MOSFET), inventado por Mohamed M. Atalla e Dawon Kahng no Bell Labs em 1960. O O processo de fabricação de MOS complementar (CMOS) foi desenvolvido por Frank Wanlass e Chih-Tang Sah em 1963.

Computadores

Antes do advento da eletrônica , os computadores mecânicos , como a Máquina Analítica em 1837, foram projetados para fornecer cálculos matemáticos de rotina e recursos simples de tomada de decisão. As necessidades militares durante a Segunda Guerra Mundial impulsionaram o desenvolvimento dos primeiros computadores eletrônicos, baseados em tubos de vácuo , incluindo o Z3 , o computador Atanasoff – Berry , o computador Colossus e o ENIAC .

A invenção do transistor possibilitou a era dos computadores mainframe (anos 1950 a 1970), tipificados pelo IBM 360 . Esses computadores grandes, do tamanho de uma sala , forneciam cálculo e manipulação de dados muito mais rápidos do que o humanamente possível, mas eram caros para comprar e manter, portanto, inicialmente limitados a algumas instituições científicas, grandes corporações e agências governamentais.

O circuito integrado de germânio (IC) foi inventado por Jack Kilby na Texas Instruments em 1958. O circuito integrado de silício foi inventado em 1959 por Robert Noyce na Fairchild Semiconductor , usando o processo planar desenvolvido por Jean Hoerni , que por sua vez estava construindo sobre Mohamed O método de passivação de superfície de silício de Atalla desenvolvido no Bell Labs em 1957. Após a invenção do transistor MOS por Mohamed Atalla e Dawon Kahng no Bell Labs em 1959, o circuito integrado MOS foi desenvolvido por Fred Heiman e Steven Hofstein na RCA em 1962. O MOS IC com porta de silício foi posteriormente desenvolvido por Federico Faggin na Fairchild Semiconductor em 1968. Com o advento do transistor MOS e do MOS IC, a tecnologia do transistor melhorou rapidamente e a relação entre a capacidade de computação e o tamanho aumentou dramaticamente, dando acesso direto a computadores para grupos cada vez menores de pessoas.

O primeiro microprocessador comercial de chip único lançado em 1971, o Intel 4004 , que foi desenvolvido por Federico Faggin usando sua tecnologia MOS IC de porta de silício, junto com Marcian Hoff , Masatoshi Shima e Stan Mazor .

Junto com máquinas de fliperama eletrônicas e consoles de videogame doméstico na década de 1970, o desenvolvimento de computadores pessoais como o Commodore PET e o Apple II (ambos em 1977) deu aos indivíduos acesso ao computador. Mas o compartilhamento de dados entre computadores individuais era inexistente ou em grande parte manual , primeiro usando cartões perfurados e fita magnética e, mais tarde, disquetes .

Dados

Os primeiros desenvolvimentos para armazenamento de dados basearam-se inicialmente em fotografias, começando com a microfotografia em 1851 e depois a microforma na década de 1920, com a capacidade de armazenar documentos em filme, tornando-os muito mais compactos. A teoria da informação inicial e os códigos de Hamming foram desenvolvidos por volta de 1950, mas aguardavam-se as inovações técnicas na transmissão e armazenamento de dados para serem colocados em pleno uso.

A memória de núcleo magnético foi desenvolvida a partir da pesquisa de Frederick W. Viehe em 1947 e de An Wang na Universidade de Harvard em 1949. Com o advento do transistor MOS, a memória semicondutora MOS foi desenvolvida por John Schmidt na Fairchild Semiconductor em 1964. Em 1967, Dawon Kahng e Simon Sze da Bell Labs descreveram em 1967 como a porta flutuante de um dispositivo semicondutor MOS poderia ser usada para a célula de uma ROM reprogramável. Após a invenção da memória flash por Fujio Masuoka na Toshiba em 1980, a Toshiba comercializou a memória flash NAND em 1987.

Enquanto cabos de transmissão de dados digitais conectados a terminais de computador e periféricos para mainframes eram comuns, e sistemas especiais de compartilhamento de mensagens que levam ao e - mail foram desenvolvidos pela primeira vez na década de 1960, a rede independente de computador a computador começou com a ARPANET em 1969. Isso se expandiu para se tornar a Internet (cunhado em 1974) e, em seguida, a World Wide Web em 1991.

O dimensionamento do MOSFET , a rápida miniaturização dos MOSFETs a uma taxa prevista pela lei de Moore , fez com que os computadores se tornassem menores e mais poderosos, a ponto de poderem ser carregados. Durante as décadas de 1980-1990, os laptops foram desenvolvidos como uma forma de computador portátil e os assistentes pessoais digitais (PDAs) podiam ser usados ​​em pé ou andando. Os pagers , amplamente usados ​​na década de 1980, foram amplamente substituídos por telefones celulares no final da década de 1990, fornecendo recursos de rede móvel para alguns computadores. Agora comum, essa tecnologia se estende a câmeras digitais e outros dispositivos vestíveis. A partir do final da década de 1990, os tablets e depois os smartphones combinaram e ampliaram essas habilidades de computação, mobilidade e compartilhamento de informações.

O vídeo da Internet foi popularizado pelo YouTube , uma plataforma de vídeo online fundada por Chad Hurley , Jawed Karim e Steve Chen em 2005, que permitiu o streaming de vídeo de conteúdo MPEG-4 AVC (H.264) gerado pelo usuário de qualquer lugar na World Wide Web .

O papel eletrônico , que teve origem na década de 1970, permite que as informações digitais apareçam como documentos em papel.

Óptica

A comunicação óptica tem desempenhado um papel importante nas redes de comunicação . A comunicação óptica forneceu a base de hardware para a tecnologia da Internet , lançando as bases para a Revolução Digital e a Era da Informação.

Em 1953, Bram van Heel demonstrou a transmissão de imagens através de feixes de fibras ópticas com revestimento transparente. No mesmo ano, Harold Hopkins e Narinder Singh Kapany no Imperial College conseguiram fazer feixes de transmissão de imagens com mais de 10.000 fibras ópticas e, posteriormente, conseguiram a transmissão de imagens por meio de um feixe de 75 cm de comprimento que combinava vários milhares de fibras.

Os sensores de imagem de semicondutores de óxido de metal (MOS) , que começaram a aparecer no final dos anos 1960, levaram à transição da imagem analógica para a digital e das câmeras analógicas para as digitais durante os anos 1980-1990. Os sensores de imagem mais comuns são o sensor de dispositivo de carga acoplada (CCD) e o sensor de pixel ativo CMOS (MOS complementar) (sensor CMOS).

Veja também

Referências

Leitura adicional

links externos