"O Marco Civil da Internet colocou o Brasil à frente de outros países, ao regular comportamentos e punir abusos cometidos na rede. "
A avaliação é do diretor do Instituto de Tecnologia & Sociedade do Rio de Janeiro (ITS), Carlos Affonso Souza (foto), que palestrou em seminário na sede da Ordem dos Advogados do Brasil do estado.
Segundo ele, que esteve recentemente na Índia falando sobre a lei, a Itália criou uma comissão justamente para fazer uma proposta de Marco Civil. “Inicialmente será para uso interno, mas como o país vai assumir a Presidência da União Europeia dentro em breve, pode ser levada para toda a comunidade. E a experiencia brasileira é citada diversas vezes no documento. No exterior, somos lembrados como referência de país que adotou uma norma neste sentido”, analisou.
Ele informou que esteve recentemente na Índia falando sobre a lei, e que a Itália criou uma comissão para fazer uma norma semelhante. “Inicialmente será para uso interno, mas como o país vai assumir a Presidência da União Europeia dentro em breve, pode ser levada para toda a comunidade. E a experiência brasileira é citada diversas vezes no documento. No exterior, somos lembrados como referência de país que adotou uma norma neste sentido.”
Um dos avanços, em sua opinião, é em relação à responsabilidade dos provedores por informações publicadas. A Lei 12.965/2014 estabelece princípios, garantias, direitos e deveres para o uso da internet. O texto prevê dois tipos de provedores: os de acesso ou de conexão e os de aplicação na internet, usualmente conhecidos como provedores de serviços, como pesquisa, hospedagem, busca, rede social etc. Há mais de uma década, os tribunais dizem que os provedores não são responsáveis por conteúdos, por atos de terceiros na rede. Mas essa situação já começou a se alterar.
Atualmente, o provedor de conexão tem o dever de ser o guardião de todos os registros feitos pelo usuário. Sua obrigação é de reter os dados durante um ano. E esse prazo pode ser estendido por mais um ano se alguma autoridade policial, administrativa ou o Mistério Público requisitar ao provedor, não judicialmente.
O mesmo acontece com os provedores de aplicativos. Nesse caso, os prazos são menores. São seis meses para guardar os registros. Do mesmo modo, o Ministério Público, a Polícia ou qualquer autoridade administrativa poderão pedir a extensão do prazo. Porém, a partir da medida, o prazo de 60 dias é fixado para que uma medida judicial seja formulada, sob pena de caducidade.
É por meio dessas obrigações que existe a possibilidade de se rastrear o autor do delito. E isso é feito por meio do IP (Internet Protocol, ou protocolo de internet, que é a "identidade" do computador) das máquinas. Pelo IP, sabe-se quem é o provedor e se pode solicitar que as informações sejam guardadas. Ao ser instado pela autoridade judicial, ele poderá fornecer os dados daquele IP e o registro do que ele fez na rede, se for o provedor de aplicativo, ou o tempo em que ele ficou conectado, se for provedor de acesso. Qualquer parte interessada, que não precisa necessariamente ser uma autoridade, pode também requerer que os dados sejam disponibilizados, mediante requerimento judicial.
Outra informação interessante trazida pela lei é que, em situações em que há transmissão e divulgação de cenas de nudez ou de sexo explícito, o próprio interessado poderá se dirigir ao provedor e solicitar a indisponibilidade daquelas imagens, sob pena de o provedor ser responsabilizado. A lei não estabeleceu que responsabilidade é essa.
A norma define a responsabilidade como civil, ou seja, não há qualquer criminalização prevista. Isso quer dizer que há ainda possibilidade de o provedor ser responsabilizado nos termos do Código de Defesa do Consumidor.
Para a advogada Marianna Furtado de Mendonça, do escritório Montaury Pimenta, Machado & Vieira de Mello, especializado em propriedade intelectual, é a primeira vez que se uniformiza os procedimentos relativos aos provedores. “Se por uma lado teremos, a partir de agora, um norte legislativo de se retirar do provedor a condição de juiz dos casos, por outro, teremos uma judicialização deste assunto”, avalia. Uma saída, ela diz, pode ser o procedimento arbitral, que pode aliviar a Justiça. “Em um segundo momento, sentiremos a necessidade da criação de Juizados Especiais para Internet.” Ela ressalva, no entanto, que a internet não é um mundo a parte, mas só um novo meio de atender ao consumidor e, infelizmente, ao crime.
Direitos Autorais
Já para Rodrigo Borges Carneiro, do escritório Dannemann, Siemsen Advogados, o texto aprovado peca por não listar expressamente o respeito aos direitos autorais entre aqueles que devem reger a disciplina do uso da Internet no Brasil.
“Não se pode negar o fato de que grande parte do apelo e utilidade da Internet se baseia na transmissão e acesso a conteúdo passível de proteção por direitos autorais e de propriedade intelectual, fruto da criatividade de autores e investimento de titulares em todo mundo”, disse. São obras literárias, fotográficas, musicais, audiovisuais e multimídia, programas de computador, aplicativos e jogos que entretêm, educam e enriquem a vida de milhares de usuários diariamente, defende.
O advogado entende que, ao deixar de "amarrar" o princípio dos Direitos Autorais à Internet, o legislador adotou uma opção “canhestra” de que a propriedade intelectual seria um estorvo, um obstáculo a inovação e a natureza participativa da rede.
“Tão importante quanto isso, corre-se o risco de o Poder Judiciário entender que os direitos de propriedade intelectual no âmbito da Internet devam ser tratados como direitos de segunda linha, menos relevantes do que outros princípios e que, nos casos de conflito, deveriam quase que necessariamente ceder a esses. Perdida essa oportunidade agora, será mais do que nunca importante que a revisão da Lei de Direitos Autorais reflita um cuidado especial com a Internet”, alerta.
Entretanto, para Carlos Affonso Souza, o Marco Civil não pretende mesmo unir os dois princípios. O argumento que justifica os direitos autorais não estarem dentro do Marco Civil é um argumento de natureza técnica, política. “É para não confundir os dois processos de reforma”, diz. Para ele, as infrações na Internet como danos à honra, à imagem e à privacidade, por exemplo, são altamente subjetivas. E as infrações no Direito Autoral têm maior objetividade. Seria mais fácil identificar o que é infração. "São argumentos que justificariam essa exceção."
Conflitos de direitos
A edição da lei trouxe ainda o debate sobre o direito ao esquecimento e o direito à memória com o uso da internet. Concretamente, ficaram estabelecidas punições para crimes próprios e impróprios praticados na, e pela, internet. Uma outra novidade está na menção, por cinco vezes, da expressão “liberdade de expressão”.
“Isto é muito revelador. O artigo 2º elege a liberdade de expressão como um dos fundamentos para a disciplina da Internet no Brasil. É interessante notar que a liberdade de expressão está no caput do artigo e o conceito Direitos Humanos está inciso 3º desse artigo. Um dos fundamentos do uso da Internet é o respeito aos Direitos Humanos. Então, temos liberdade de expressão, que é um direito humano, destacada do conjunto dos direitos humanos, e alçada ao caput do artigo segundo. Por que será?”, indaga Carlos Affonso Souza, diretor da ITS.
“Será que, politicamente falando, existe uma natural resistência à ideia de uma lei para regular a Internet? É muito fácil dizer que o Marco Civil é censura e até mesmo um novo AI-5, como se falou na época das discussões iniciais, e que qualquer lei que vá regular comportamentos na Internet vem para censurar a liberdade de expressão”, disse. Talvez, isso seja uma discussão proposta pelo próprio legislador para se proteger de críticas, dizendo ‘o MC não é um instrumento de censura, vejam a importância que a liberdade de expressão ganhou nos mais diversos dispositivos do Marco’".
"Liberdade na internet não significa uma internet sem leis", continua Souza. "Muito pelo contrário. O papel dos juristas, dos advogados, é justamente lutar por uma regulação que privilegie os direitos humanos, que privilegie uma zona de proteção para a humanidade. Então, não se é livre porque não se tem lei; se é livre porque se tem uma lei que assegura as liberdades já conquistadas pelo desenvolvimento tecnológico", conclui.
Posted on 07:16by Jeferson Freitas with 4 comments
O projeto antes da Lei
Falaremos um pouco sobre o Projeto de Lei (doravante PL) 2126/11, conhecido também como Marco Civil da Internet. Lei que, desde
o início, em 2009, vem sendo alvo de desentendimentos políticos e de opinião. A
grande preocupação é que, essa lei, seja uma censura à liberdade de expressão,
algo que não existe na utilização da internet, dando controle excessivo ao
governo e possibilitando atos de privação de liberdade por parte deste. “Os principais princípios dessa lei são:
privacidade, vigilância na web, internet livre, dados pessoais, fim da
propaganda dirigida, conteúdo ilegal e armazenamento de dados.” Disse o
Deputado Federal Alessandro Molon, relator do projeto.
Esse projeto passou por diversas
alterações em seu texto, sendo aprovado na câmara, em 23/04/2014, de forma que
o Governo não tenha um controle total e mantenha a liberdade do usuário. Por diversas vezes, o projeto já esteve próximo
a ser votado, mas sempre acabou sendo adiado por discordância de opiniões.
Entre elas estão as questões da neutralidade de rede, que veta a venda de pacotes
que restringem o acesso à internet, e do armazenamento de dados
dos usuários brasileiros, ainda que a empresa seja estrangeira.
Neutralidade
de rede: O
projeto aprovado na Câmara proíbe totalmente os provedores de internet de
vender planos que façam diferenciações no tráfego de dados ou que selecionem o
conteúdo a ser acessado. Com a aprovação do Marco, ficou vetado, por exemplo, a
venda de um pacote que permite utilizar somente o acesso a e-mails e sites de
notícias.
O princípio é que as empresas não podem fazer distinções no tráfego de
dados em suas redes por conteúdo, origem, destino ou serviço, tratando todo
tipo de dado da mesma forma.
Algumas empresas de telecomunicações queriam
poder vender pacotes de assinatura de internet, inclusive para celular,
limitando o acesso a alguns sites, como redes sociais. Isso permitiria cobrar
mais caro para que os celulares tenham acesso às mídias sociais.
Na redação final do projeto na Câmara, ficou
determinado que, para regulamentar o tema, a Presidência deverá ouvir a Agência
Nacional de Telecomunicações (Anatel) e o Comitê Gestor da Internet (CGI). A
versão anterior dizia que isso poderia ser feito apenas com um decreto
presidencial, sem consultas extras.
Armazenamento
de dados: Segundo a proposta inicial, o Executivo poderia
obrigar as operadoras e sites de grande porte – Google e Facebook – a armazenarem
todo seu banco de dados no Brasil, ainda que a empresa fosse estrangeira e
tivesse somente uma filial no país.
A intenção do governo era de impedir que
os dados fossem estocados em servidores estrangeiros a fim de dificultar o
acesso por serviços de inteligência. Incluiu-se este ponto após o escândalo de
espionagem da NSA (National Security Agency), mas foi duramente criticada e excluída do texto final.
Anteriormente tratamos dos termos "computação" (relacionando-o a cálculo e operações matemáticas) e exemplificamos que a História da Computação não é tão recente quanto se imagina. Saltando um
pouco na história, encontramos John
Napier (1550-1617), o Barão de
Merchiston. Este matemático, físico, astrônomo, astrólogo e teólogo escocês é
conhecido pela descoberta dos logaritmos, além de ter inventado instrumentos para ajudar no cálculo aritmético. Uma de suas
invenções, um dispositivo chamado “Ossos de Napier” são tabelas de
multiplicação gravadas em bastão, que permitem a multiplicação e divisão de
forma automática, evitando a memorização da tabuada. Os “Ossos de Napier” auxiliaram
o uso de logaritmos na execução de operações aritméticas como multiplicações e
divisões longas.
John Napier
A partir dos logaritmos de Napier, o
matemático inglês Willian Oughtred (1575-1660)
desenvolveu a régua de cálculo. Essa invenção ganhou sua forma atual por volta
do ano de 1650 e tornou-se, no século XX, o grande símbolo do avanço
tecnológico, com uso extremamente difundido, até ser definitivamente
substituída pelas calculadoras eletrônicas. Além disso, em sua obra, Oughtred enfatizou
os símbolos matemáticos, como o “x” utilizado para multiplicação.
Willian Oughtred
Com o desenvolvimento dos primeiros
dispositivos mecânicos para cálculo automático, começa efetivamente a vertente
tecnológica que levará à construção dos primeiros computadores. Entre os nomes
que podem ser citados a partir daqui destacam-se: Wilhelm Schickard (1592-1635), Blaise Pascal (1623-1662) e Gottfried
Wilhelm Leibniz (1646 -1716).
O alemão Schickard
é considerado o primeiro a
construir uma máquina de calcular mecânica, o “relógio de calcular” para multiplicação de grandes números. O
francês Blaise Pascal montou a primeira máquina de cálculo para ajudar
nos negócios do pai em 1642. Assim, é atribuída a ele a criação de uma das
primeiras calculadoras mecânicas, a Pascaline, além de contribuições
importantes para a criação de dois novos ramos da matemática: a Geometria
Projetiva e a Teoria das Probabilidades. Já Leibniz desenvolveu um dispositivo mecânico de calcular capaz de multiplicar,
dividir, somar e subtrair e é considerado o precursor da Lógica Matemática moderna.
Blaise Pascal
Seguindo a ideia de Leibniz de,
através de máquinas, liberar o homem das tarefas repetitivas e de simples
execução, o matemático e astrônomo inglês Charles
Babbage (1792-1871), considerado unanimemente um dos grandes pioneiros da
era dos computadores, concebeu a ideia de um dispositivo mecânico capaz de
executar uma série de cálculos.
Visando construir um dispositivo para
computar e imprimir um conjunto de tabelas matemáticas (utilizadas na época
para cálculo de multiplicação, seno, coseno, logaritmos, densidade, constante
gravitacional, entre outras funções), Babbage arquitetou a Máquina de
Diferenças. Ao tentar colocar seu projeto em prática, ele percebeu que a
tecnologia do seu tempo estava distante daqueles mecanismos altamente precisos
e de movimentos complexos exigidos pelo seu projeto. No entanto, possivelmente
modificando seu projeto inicial, Babbage idealizou uma máquina de cálculo
universal, a Máquina Analítica, conceitualmente próxima do que hoje é chamado
de computador.
Charles Babbage
A Máquina Analítica poderia seguir
conjuntos mutáveis de instruções, o que demandaria uma linguagem que serviria
para que máquina fosse “programada” com uma série de instruções condicionais,
que lhe permitiriam modificar suas ações em resposta a diferentes situações. Além
da linguagem, Babbage também desenvolveu o conceito de “dispositivos de
entrada” (cartões a partir dos quais a entrada de dados seria feita) e “transferência
de controle” (permitia à máquina comparar quantidades e, dependendo dos
resultados da comparação, desviar para outra instrução ou sequência de
instruções), além de possibilitar que os resultados dos cálculos pudessem
alterar outros números e instruções colocadas na máquina, permitindo que a
máquina modificasse seu próprio programa.
Apresentada a Babbage durante a
primeira demonstração da Máquina de Diferenças, Ada Augusta Byron (1815 -1852), Condessa de Lovelace, tornou-se uma
importante auxiliar em seu trabalho, sendo, sobretudo, alguém que compreendeu o
alcance das novas invenções. Ela percebeu que, diferentemente das máquinas
anteriores com funcionamento analógico (execução de cálculos usando medidas), a
Máquina de Diferenças era digital (execução de cálculos usando fórmulas
numéricas). Mais importante ainda, deu-se conta da combinação entre funções
lógicas e aritméticas na máquina de Babbage. Atualmente, Ada Lovelace é
considerada a primeira programadora de computadores por ter escrito o primeiro
algoritmo para ser processado por uma máquina.
Ada Lovelace
Destaca-se também que a Máquina de
Diferenças de Babbage serviu de base para construção de máquinas ao redor do
mundo. Por exemplo, cabe citar que, tomando por base a descrição (e modo de
operação) da máquina, o sueco, George
Scheutz (1785-1873) propôs-se
a construí-la e, em outubro de 1854, o dispositivo de Scheutz estava completo e
em funcionamento. Outros, como o inglês Alfred Decon, o sueco Martin Wiberg e o
americano G. B. Grant construíram modelos derivados, e até 1931 diversas “Máquinas
de Diferenças” foram construídas para produzir diferentes tipos de tabelas. Além
disso, consta que o irlandês Percy
Ludgate (1883-1922) projetou e tentou construir um mecanismo similar ao da Máquina
Analítica de Babbage.
Embora sua invenção esteja obsoleta
atualmente, Herman Hollerith (1860-1929) deu um passo importante
na história da computação. A empresa fundada por ele para o desenvolvimento de
um equipamento de processamento de dados para auxiliar o censo americano, a Hollerith
Tabulating Machines, veio a ser uma das três que em 1914 compôs a empresa CTR
(Calculating-Tabulating-Recording), renomeada em 1924 para International
Business Machine - IBM.
Herman Hollerith
Destaca-se que Hollerith tomou por
base uma máquina produzida pelo francês Joseph-Mariae
Jacquard (1752-1834), que usava uma série de cartões perfurados cujos
buracos estavam configurados para descrever o modelo a ser produzido em teares.
Hollerith pensou que poderia aproveitar os cartões perfurados dos teares em uma
máquina que pudesse interpretar, classificar e manipular as somas aritméticas
representadas pelas perfurações. Atualmente, Hollerith é conhecido como o pai
do processamento de dados.
No próximo post serão apresentadas algumas das principais personalidades que contribuíram para o surgimento e desenvolvimento dos computadores analógicos. Fontes: Fonseca Filho, Cléuzio. História da computação: O Caminho do Pensamento e da Tecnologia. – Porto Alegre : EDIPUCRS, 2007 Wikipédia
A computação tal qual conhecemos é o resultado de uma evolução tecnológica de vários séculos, partilhada por inúmeros personagens. Cada um destes personagens participa da história acrescentando sua pequena ou grande contribuição. Entretanto, embora suas contribuições sejam fundamentais, algumas destas personalidades são desconhecidas ou conhecidas apenas superficialmente por muitos de nós.
Dando continuidade aos relatos sobre o histórico da computação, esta postagem e as seguintes buscarão retomar um pouco do “lado humano” da computação, listando alguns dos nomes cujas contribuições (vide primeiro post) formam os alicerces para a evolução da computação desde as civilizações antigas.
A fim de que a leitura não seja cansativa e para que algumas contribuições possam ter certo nível de detalhamento, serão feitas postagens distintas divididas em:
Primórdios da computação
Dispositivos mecânicos
Computadores analógicos
Computação eletrônica
Máquinas mais robustas
Primórdios da computação
Embora o senso
comum relacione o termo “tecnologia” a máquinas e equipamentos que solucionam
problemas e o termo computação apenas ao uso de uma tecnologia especifica (o
computador pessoal tal qual conhecemos atualmente), destaca-se que os termos
são bem mais abrangentes.
O termo tecnologia é de
origemgrega,
formado pelas palavras tekne (“arte, técnica ou ofício”) e por logos (“conjunto
de saberes”). Deste modo, bem mais que máquinas, a tecnologia consiste em conhecimentos
(técnico e cientifico) aplicados na fabricação de ferramentas, processos e
materiais e modificação do meio ambiente, visando satisfazer as necessidades
humanas.
No Dicionário de Informática e Internet, a computação é conceituada como “operação de cálculo aritmético ou lógico
realizada automaticamente por uma unidade aritmética e lógica de um
computador”. Ainda que o avanço da computação seja percebido como
rápido e relativamente recente (considerando os computadores eletrônicos), ao
levar que conta que o termo computar significa fazer cálculos, contar, efetuar operações aritméticas,
o computador seria o mecanismo que auxilia essa tarefa, proporcionando
vantagens no tempo gasto e na precisão.
Considerando o significado do termo computar, é possível fazer uma conexão mais ampla entre o desenvolvimento da computação e sua aplicação na sociedade. Uma análise pode ser feita a medida
em que constatamos que a vida em sociedade, o desenvolvimento da lavoura e da
pecuária demandaram a necessidade de que o homem primitivo realizasse cálculos.
Nesta época, o homem utilizava os próprios dedos para essa tarefa (originando o
sistema decimal e os termos “digital” e “digito”) e empregando a tecnologia
existente, no caso, gravetos, contas, marcas na parede ou tábuas de argila.
Assim, ainda que pensemos na
computação como um marco da história recente, os primeiros dispositivos que
surgiram para ajudar o homem a calcular têm origem nos primórdios das
civilizações. O ábaco, por exemplo, um instrumento capaz de resolver problemas
de adição, subtração, multiplicação e divisão de até 12 inteiros, foi muito
utilizado pelas civilizações egípcia,
grega, chinesa e romana. Outro exemplo, o quadrante, era um instrumento
para cálculo astronômico usado por antigos
babilônios e gregos para medir os ângulos entre as estrelas. Relata-se que
os antigos gregos chegaram até a
desenvolver um computador rudimentar, o Antikythera, um tipo de relógio
astronômico constituído por engrenagens de metal e ponteiros e visava evitar
cálculos tediosos.
A seguir, abordaremos alguns dos
principais nomes relacionados ao surgimento de dispositivos mecânicos.
Fontes:
Conceito de computador - O que é, Definição e Significado http://conceito.de/computador_#ixzz3aQVQdGep
Conceito de tecnologia - O que é, Definição e Significado http://conceito.de/tecnologia#ixzz3aQRxfwVe
Wikipédia http://pt.wikipedia.org/wiki/Tecnologia
A Evolução dos Computadores Http://Www2.Ic.Uff.Br/~Aconci/Evolucao.Html
Fonseca Filho, Cléuzio. História da computação: O Caminho do Pensamento e da Tecnologia. – Porto Alegre : EDIPUCRS, 2007
Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos.
Por este motivo, desenvolvemos este artigo que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em quatro partes e vai abordar temas diversos, como ábaco, Máquina de Pascal, Lógica de Boole, computadores mainframes, Steve Jobs e Bill Gates, entre vários outros.
Para começar, vamos falar sobre uma forma de calcular muito simples, mas que também foi muito útil nas culturas antigas: o ábaco.
Ábaco, a primeira calculadora da História
Exemplo de ábaco russo Muitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia a dia, principalmente nas áreas de comércio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela que contém pequenas bolas que realizam a contagem.
Seu primeiro registro é datado do ano de 5.500 a.C., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão etc. Cada um desses povos possui uma versão de específica dessa máquina, entretanto, preservando a sua essência original. Seu nome na Roma Antiga era "Calculus", termo de onde a palavra cálculo foi derivada.
O fato deste instrumento ter sido difundido entre todas essas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com que os sistemas de contagem utilizados no cotidiano fossem implementados de forma mais prática.
Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já para a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que a padrão.
Régua de Cálculo
Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, se tornando a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do Renascimento precisavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638 depois de Cristo, um padre inglês chamado William Oughtred, criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.
Até o momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e deu a elas o nome de logaritmos. Após o fato, multiplicar valores se tornou uma tarefa mais simples.
O mecanismo consistia em uma régua que já possuía uma boa quantidade de valores pré-calculados, organizados de forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.
Máquina de Pascal
Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pré-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado de primeira calculadora mecânica da História, a Máquina de Pascal.
Seu funcionamento era baseado no uso de rodas interligadas que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, a tecnologia não foi muito bem acolhida na época.
Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que Pascal não tinha conseguido: criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada.
A programação funcional
Em todas as máquinas e mecanismos mostrados, as operações já estavam previamente programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área.
A indústria de Jacquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo esse problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.
Tal mecanismo foi chamado de Tear Programável, pois aceitava cartões perfuráveis com entrada do sistema. Dessa maneira, Jacquard perfurava o cartão com o desenho desejado e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas foram influenciados pelo tear, incluindo o que vamos explicar logo abaixo.
A Máquina de Diferenças e o Engenho Analítico
No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até então no ramo do cálculo eletrônico. O seu autor, Charles Babbage, afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos) de forma muito simples. Esse projeto possuía o nome de Máquina de Diferenças.
Houve um grande boom na época por causa disso, pois as ideias aplicadas no projeto estavam muito à frente do seu tempo. Devido a limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.
Após um período, no ano de 1837, Babbage lançou uma nova máquina, chamada de Engenho Analítico (Máquina Analítica). Ela aproveitava todos os conceitos do Tear Programável, como o uso dos cartões. Além disso, instruções e comandos também poderiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.
Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de limitações técnicas e financeiras. A tecnologia existente não era avançada o suficiente para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande que muitas de suas ideias são usadas até hoje.
A Teoria de Boole
Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Boole desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1.
Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “0” representa o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos (bits) para a representação. Por exemplo:
Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando, usa a teoria de Boole de forma prática. Para mais informações sobre o assunto, visite este artigo.
Máquina de Hollerith
O conceito de cartões desenvolvidos na máquina de Tear Programável também foi muito útil para a realização do censo de 1890, nos Estados Unidos. Nessa ocasião, Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de computação dos dados.
Em vez da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo e idade, os agentes do censo perfuravam essas opções nos cartões. Uma vez que os dados fossem coletados, o processo de computação da informação demorou aproximadamente 1/3 do comum. Foi praticamente uma revolução na maneira de coleta de informações.
Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.
Computadores pré-modernos
Na primeira metade do século XX, vários computadores mecânicos foram desenvolvidos, sendo que, com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.
A Segunda Guerra Mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre os projetos desenvolvidos nesse período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.
Sendo uma das figuras mais importantes da computação, Allan Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos através de computadores. Para aqueles que apresentavam solução, foi criada a famosa teoria da “Máquina de Turing”, que, através de um número finito de operações, resolvia problemas computacionais de diversas ordens. A máquina de Turing foi colocada em prática através do computador Colosssus, citado acima.
Computação moderna
A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações.
Primeira geração (1946 — 1959)
A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. Normalmente, todos os programas eram escritos diretamente na linguagem de máquina. Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC, que foi a mais famosa de todas.
ENIAC
No ano de 1946, ocorreu uma revolução no mundo da computação com o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de mil vezes mais rápida que qualquer outra que existia na época.
A principal inovação nesta máquina é a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até então. Com o ENIAC, a maioria das operações era realizada sem a necessidade de movimentar peças de forma manual, mas sim pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações-padrão de chaves e switches.
As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de comprimento por 5,50 metros de altura. O seu peso total era de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio.
Segunda geração (1959 — 1964)
Na segunda geração, houve a substituição das válvulas eletrônicas por transístores, o que diminiu em muito tamanho do hardware. A tecnologia de circuitos impressos também foi criada, evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias: supercomputadores e minicomputadores.
(IBM 7030)
O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilzado por grandes companhias, custando em torno de 13 milhões de dólares na época.
Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Dessa maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis.
Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade. Muitos mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.
PDP-8
PDP-8 foi um dos minicomputadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares a menos). Eram menores do que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no cômodo.
Terceira geração (1964 — 1970)
Painel de controle do IBM 360
Os computadores desta geração foram conhecidos pelo uso de circuitos integrados, ou seja, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se tornaram mais velozes, com um número maior de funcionalidades. O preço também diminuiu consideravelmente.
Um dos principais exemplos da terceira geração é o IBM 360/91, lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel.
O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual.
No final deste período, houve um preocupação com a falta de qualidade no desenvolvimento de softwares, visto que grande parte das empresas estava só focada no hardware.
Quarta geração (1970 até hoje)
A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas.
Os circuitos acabaram se tornando ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.
Altair 8800
O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.
Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita.
Apple, Lisa e Macintosh
(Macintosh)
Vendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que ainda faltava algo no projeto: apesar de suas funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns.
Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma ideia.
Seguindo na mesma linha, os computadores Lisa (1983) e Macintosh (1984) foram os primeiros a usar o mouse e possuir a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PCs tiveram um sucesso estrondoso, vendendo um número enorme de máquinas.
Microsoft e os processadores Intel
Paralelamente à Apple, Bill Gates fundou a Microsoft, que também desenvolvia computadores principiais. No começo de sua existência, no final dos anos 70 e até meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs.
Por esse motivo, Bill Gates acabou criando uma parceria com Jobs e, após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows.
Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de computadores pessoais.
Desde aquela época, vários processadores da Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos da Intel, podemos citar: 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo e i7. A AMD entrou no ramo de processadores em 1993, com o K5, lançando posteriormente o K6, K7, Athlon, Duron, Sempron, entre outros.
Todos os computadores pessoais que são lançados atualmente são bastante derivados das ideias criadas pela Apple e pela Microsoft.
Multi-core
Uma das principais tendências dos últimos anos do mercado de desktops é a chamada “multi-core”, que consiste em vários processadores trabalhando paralelamente. Assim, as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a CPU em vários núcleos. Para mais informações, clique aqui.
Computação de bolso e tablets
Finalizando este artigo, vamos falar sobre a computação de bolso, que está cada vez mais presente nas nossas vidas. De alguns anos para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem ser carregados dentro do bolso — por isso o seu nome.
Entre esses dispositivos, podemos citar primeiramente os celulares, que cada vez mais executam funções existentes nos computadores, possuindo sistemas operacionais completos, além de palmtops, pendrives, câmeras fotográficas, TVs portáteis etc.
Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união de muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser muito comum que as pessoas tenham somente um único dispositivo portátil, que vai executar todas as tarefas desejadas. A chegada dos tablets ao mercado foi outro grande passo para que isso se tornasse realidade.
Com exceção da imagem do PDP-8(origem citada na própria imagem), texto e imagens retirados do site TECMUNDO. Abaixo um vídeo mostrando a evolução do computador através do tempo ' rs
Aqui falaremos sobre a relação entre a Sociedade e os Computadores, abordaremos temas relacionados e notícias, antigas e novas, sobre o assunto, para que possamos criar uma visão abrangente.
Nesse blog temos algumas guias na parte superior onde você poderá se guiar a postagens específicas:
Em Comp. e Socied. (Computação e Sociedade) - Falaremos sobre computação, a interação com as pessoas e sobre a sociedade na internet. Redes Sociais - as mais novas ferramentas sobre as redes sociais, segurança e outros temas relacionados. WebNews - Aqui sairão notícias, links para textos e vídeos relacionados ao tema do blog, também tocaremos em assuntos aleatórios desde que não saia muito do tema.
As postagens em destaque na semana você poderá ver no slide na página inicial.
Vamos construindo o blog - com muito amor e carinho - e as novidades que surgirem vamos informando a vocês.
"Este é um Edu-blog dos alunos do curso de Sistemas de Informação, do DCOMP - Departamento de Computação, UFS - Universidade Federal de Sergipe, Brasil."