terça-feira, 29 de abril de 2014

QUÍMICA FORENSE



A investigação química de crimes é muito antiga, sendo relatado que Democritus foi provavelmente o primeiro químico a relatar suas descobertas a um médico Hipócrates. Na Roma antiga já existiam legislações que proibiam o uso de tóxicos em 82 A.C. A forma mais usual de cometer assassinatos ou suicídios era através do uso de substâncias tóxicas, como o arsênico ou através de venenos como os de escorpiões. Isso se deve ao fato de que qualquer substância pode ser perigosa, dependendo apenas da dose administrada.
O primeiro julgamento legal a utilizar evidências químicas como provas ocorreu apenas em 1752, o caso Blandy.

O surgimento da química forense na modernidade deu-se a partir de um famoso crime, cometido em 1850, no Castelo de Bitremont na Bélgica. A vítima, Gustave Fougnies, era o cunhado do conde Hippolyte Visart de Bocarmé. Este, por sua vez, teria extraido óleo da planta do tabaco e, juntamente com a condesa, a irmã da vítima, teria obrigado Gustave Fougnies a ingerir a substância. A polícia que encontrara evidências da preparação do veneno no laboratório do conde, precisava de provas concretas para constatar o envenenamento e solicitou assim, a ajuda do químico francês Jean Stas. Stas conseguiu desenvolver um método para detectar a nicotina nos tecidos do cadáver, o que levou a condenação do conde por assassinato, no ano seguinte, que foi executado na guilhotina.





QUÍMICA FORENSE

Química forense é a aplicação dos conhecimentos da química e toxicologia no campo legal ou judicial. Diversas técnicas de análises químicas, bioquímicas e toxicológicas são utilizadas para ajudar a compreender a face sofisticada e complexa dos crimes, seja assassinatos, roubos e envenenamentos, seja adulterações de produtos e processos que estejam fora da lei. Trata-se de um ramo singular das ciências químicas uma vez que sua prática e investigação científica devem conectar duas áreas distintas, a científica (química e biologia) e a humanística (sociologia, psicologia, direito).

A área forense é multi e interdisciplinar. Para realizar uma análise química, o perito deve possuir um bom conhecimento de Química Analítica, Orgânica, Bioquímica, Físico-Química. Além disso, deve ser curioso, estar atento às provas e ter uma boa capacidade de relacionar informações.

As atuações do químico forense podem ocorrer em variadas esferas, e não apenas no âmbito dos crimes contra a vida. Entre as principais áreas de atuação podemos citar:

§  Perícias policiais;
§  Perícias trabalhistas;
§  Perícias industriais (alimentos, medicamentos etc);
§  Perícias ambientais;
§  Doping esportivo.


A química forense engloba análises orgânicas e inorgânicas, toxicologia, investigações sobre incêndios criminosos e serológica, e suas conclusões servem para embasar decisões judiciais.

Apesar de as investigações criminais serem o aspecto mais conhecido da química forense, ela não se limita a ocorrências policiais. O químico forense também pode dar seu parecer em decisões de natureza judicial, atuar em questões trabalhistas, como determinar se uma atividade é perigosa ou insalubre, detectar adulterações em combustíveis e bebidas, uso de drogas ilícitas, fazer perícias em alimentos e medicamentos e investigar o doping esportivo.






INVESTIGAÇÃO CRIMINAL EM COMPOSTOS QUÍMICOS E ENVENENAMENTO

As análises toxicológicas englobam as etapas de detecção, identificação e quantificação de substâncias e interpretação do resultado obtido na análise. Importante também é o estabelecimento da relação de causa e efeito, quer dizer, se a substância analisada é a responsável pelo resultado concreto e, por este motivo, deve ser gerado à luz de conhecimentos e possibilitar que os mesmos sejam inequívocos e, por conseguinte, o laudo gerado deve ser irrefutável.

Fatores a serem considerados para gerar uma análise confiável: cadeia de custódia, que envolve a documentação desde a coleta da amostra até a obtenção do resultado final da análise; manuseio correto das amostras, incluindo a correta identificação e integridade da mesma.
Neste contexto, percebe-se a importância do investigador, pois um local de crime preservado tem papel decisivo no resultado final da análise laboratorial.





PERINECROSCOPIA E NECROSCOPIA

São o exame do local do crime e do cadáver, respectivamente. Em suspeita de morte por intoxicação, os policiais envolvidos no exame de local devem ter especial atenção em observar:

§  Restos de vômito na vítima;
§  Cheiro de gás;
§  Presença de indícios como seringas, agulhas, algodão, tampas de garrafas, colheres, embalagens de medicamentos, comprimidos, frascos de veneno, etc.

Os investigadores devem realizar uma pesquisa de campo, na qual é interessante o colher o máximo de informações sobre a vítima, junto a familiares, amigos, vizinhos, colegas de trabalho.
Informações sobre uso de medicamentos, consumo de drogas, alcoolismo, distúrbios psiquiátricos, tentativa de suicídio e possíveis inimigos, auxiliam e podem direcionar o trabalho.
A descrição de achados na necroscopia (autópsia) colabora com os exames laboratoriais, facilitando inclusive, a interpretação dos resultados obtidos em uma análise forense.
Dependendo da característica química da substância utilizada, pode deixar lesões por ação local e/ou sistêmica no cadáver.
Muitas vezes, as lesões são inespecíficas e meramente indicativas, não permitindo se chegar a conclusões definitivas acerca do toxicante em questão.





PROCEDIMENTOS LABORATORIAIS

Neste tópico, serão descritos alguns procedimentos realizados pelo analista forense que são de interesse de todos os envolvidos na coleta de provas, no âmbito da Polícia. As etapas de coleta, armazenamento e transporte muitas vezes são executadas em ambiente diverso do local de análise. Como exemplo, coleta de vestígio no local do crime para posterior análise. Percebe-se, desta forma, a importância de todo policial envolvido na cadeia de custódia, conhecer os procedimentos corretos.
Na área de toxicologia forense, todas as amostras são recebidas como evidências. São analisadas e o seu resultado é apresentado na forma de laudo para ser utilizado na persecução penal. As amostras devem ser manuseadas de forma cautelosa, para tentar evitar futuras alegações de adulteração ou má conduta que possam comprometer as decisões relacionadas ao caso em questão. Nesta situação, a cadeia de custódia é um procedimento que colabora com a integridade do processo ao qual a amostra foi submetida.





PREPARO E SELEÇÃO DE AMOSTRAS

A análise laboratorial dos toxicantes requer um pré-tratamento da amostra, devido a complexidade das matrizes biológicas, das quais os compostos são obtidos, a existência de proteínas que são incompatíveis com os métodos de detecção e a concentração das substâncias a serem analisadas, a nível de traço. As técnicas de extração ou pré-concentração permitem que a análise se torne possível. O objetivo é a obtenção de uma fração da amostra original concentrada com as substâncias de interesse analítico, para se conseguir uma separação cromatográfica livre de interferentes, com detecção adequada.

As técnicas mais utilizadas são: extração líquido-líquido (solvente orgânico – aquoso), extração em fase sólida e extração com membranas sólidas (diálise e ultrafiltração) ou líquidas.
No processo interno de análise, é necessário levar em conta fatores como a natureza do toxicante procurado, sua possível biotransformação e a qualidade/quantidade de material disponível. Freqüentemente, é necessário o envio de amostras em excesso, mesmo que isto represente uma dificuldade na conservação e transporte destas amostras.
Entretanto, existem condições em que não é possível obter amostras de sangue em qualidade/quantidade suficiente, como em corpos carbonizados ou em avançado estágio de putrefação. Neste caso, recorre-se a amostras como cabelo, tecido muscular ou larvas encontradas junto ao cadáver.




TÉCNICAS E APARELHOS UTILIZADOS

Para garantir o controle de qualidade da análise, a amostra-problema deve ser acompanhada por outra negativa (branco), na qual a amostra é a água destilada submetida ao mesmo processo. Ainda, fazer regularmente a validação, com controle interno dos aparelhos, padrões reagentes e métodos usados.

Os métodos analíticos são escolhidos de acordo com o critério de seleção do laboratório, incluindo: custo, tempo, sensibilidade, número de amostras, matriz biológica.
Rastreio analítico, confirmação, quantificação e interpretação são fases da investigação laboratorial.

O rastreio é realizado pela utilização de métodos de sensibilidade elevada e baixa especificidade (cromatografia em camada delgada pode ser uma técnica usada nesta fase), com o intuito de triar os resultados negativos. Em alguns casos, este teste qualitativo é suficiente para elucidação do toxicante envolvido. Entretanto, a maioria dos casos exige a análise quantitativa para posterior interpretação forense.

Sendo assim, a próxima etapa passa por confirmação através de métodos mais específicos, permitindo quantificar a presença de substância suspeita (cromatografia gasosa ou a cromatografia líquida acoplada a detectores mais específicos tais como, a espectrometria de massas). Os métodos quantitativos necessitam do uso de curva de calibração ou uso de padrão interno e que sejam realizadas múltiplas determinações para diminuir os problemas de precisão, linearidade e especificidade do método utilizado.
Algumas destas técnicas são “não destrutivas”, pois não exigem transformação física ou química da amostra. Isso é importante quando se dispõe de pouco material e é necessário guardar para futura contraprova.





CONCLUSÃO


 Com o objetivo de mostrar a importância do químico forense e a aplicação de técnicas científicas dentro de um processo legal, conclui-se que a ciência forense envolve pesquisadores altamente especializados ou criminalistas que localizam vestígio nos mais diversos locais. Alguns dos vestígios encontrados não podem ser vistos a olho nu. Hoje em dia, a ciência forense usa o teste de DNA nos julgamentos de acusações complexas e sérias – solucionando assassinatos através dos blocos da vida.

Como os criminosos desenvolveram vias cada vez mais criativas de driblar a lei, a força policial foi obrigada a descobrir maneiras mais eficientes de levar esses delinquentes a julgamento. Mesmo que aparentemente eles não deixem pistas, os químicos descobriram a algum tempo que isto não é verdade. A presença física sempre estará presente em um objeto, local ou até mesmo em outra pessoa. Todos nós sabemos que os criminosos podem ser capturados pelas pegadas e balas de revólver. Mas o que nem todos sabiam era que as fibras, amostras de cabelo e até sujeira de sapato podem ser usados na investigação. De fato, praticamente, qualquer coisa encontrada na cena do crime pode ser testada e usada como prova, confirmando ou não a presença de um suspeito no local.

Origem dos Computadores



INTRODUÇÃO

Não é segredo que o computador atual é fruto de uma evolução que levou décadas para chegar aonde está, e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.
Nestes últimos tempos, a tecnologia tem-se desenvolvido de forma surpreendente, desta feita, os computadores surgiram inicialmente com fins militares. Diversos circuitos eletrônicos foram utilizados no controle de naves espaciais pelos EUA. Desta forma, essa tecnologia possibilitou a exploração do espaço pelo homem e sua chegada à Lua.
Na década de 60, os supercomputadores (assim conhecidos devido a sua enorme capacidade de processamento) passaram a ser utilizados em empresas de grande porte, realizando o controle financeiro e administrativo.
Para se ter uma ideia da capacidade de processamento do primeiro computador (chamado de ENIAC), podemos compará-lo a uma calculadora de bolso. Entretanto, por ser este um computador totalmente valvulado (não existiam transístores, muito menos circuitos integrados), a energia necessária para alimentá-lo poderia iluminar uma pequena cidade. Para abrigar os seus circuitos, foi necessário fazer uso de um andar inteiro de um edifício.
Na década de 70, o computador passou a ser montado com transístores, o que possibilitou uma redução no tamanho e no consumo de energia e, ao mesmo tempo, um aumento em sua capacidade de processamento.
No começo dos anos 80, um estudante americano chamado Bill Gates revolucionou o mundo dos computadores com a formação de uma empresa, a MICROSOFT, e com o lançamento do primeiro sistema operacional para os IBM PC XT, que foi denominado de Disk Operating System (DOS).
A partir daí, tanto o hardware (os circuitos que formam o computador) como o software (os programas) evoluíram muito rapidamente. Muitas empresas surgiram de ex-funcionários da IBM e da MICROSOFT. Duas empresas que deslancharam no ramo do hardware foram a COMPAQ e a ACER. Já na área de software, surgiram a BORLAND e a LOTUS. Esta última tornou os computadores mais aplicáveis às empresas, com o lançamento da primeira planilha eletrônica, denominada de 123.
Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.
Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.






ORIGEM DOS COMPUTADORES

Charles Babbage, considerado o pai do computador atual, construiu em 1830 o primeiro computador do mundo, cem anos antes de se tornar realidade. O projeto de Babbage apresentava desvantagens; uma delas era o fato de que o seu computador deveria ser mecânico, e a outra era a precariedade da engenharia da época. Apesar dos problemas, Charles Babbage construiu um aparelho que impressionou o governo inglês.
Entretanto, a história da computação começou muito antes. Como sabemos, o computador é uma máquina capaz de efetuar cálculos com um grupo de números e ainda adaptável para efetuar novos cálculos com um outro grupo de números. O primeiro "modelo" foi o ábaco, usado desde 2000 a.C. Ele é um tipo de computador em que se pode ver claramente a soma nos fios.
Blaise Pascal, matemático, físico e filósofo francês, inventou a primeira calculadora mecânica em 1642. A calculadora trabalhava perfeitamente, ela transferia os números da coluna de unidades para a coluna de dezenas por um dispositivo semelhante a um velocímetro do automóvel. Pascal chamou sua invenção de Pascalina.
Nos anos que se seguiram, vários projetos foram feitos com intuito de aperfeiçoar essa primeira calculadora. Entretanto, nada de significativo aconteceu, até que Babbage e Ada Lovelace começaram a considerar melhor o problema. Em 1822, Babbage apresentou a Sociedade Real de Astronomia o primeiro modelo de uma máquina de "diferença", capaz de fazer cálculos necessários para elaborar uma tabela de logaritmos. O nome da máquina foi derivado de uma técnica de matemática abstrata, o método das diferenças. Com o incentivo da sociedade, Charles Babbage continuou a trabalhar no aperfeiçoamento da máquina.
Com Ada Lovelace, filha de Lord Byron, iniciou um projeto mais ambicioso para construir uma "máquina analítica". Foi projetada para calcular valores de funções matemáticas bem mais complexas que as funções logarítmicas. A máquina era enorme, demostrava inúmeros problemas e simplesmente não funcionava. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provém dos projetos de Charles Babbage, que é lembrado como um dos fundadores da computação moderna.
Só por volta de 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático de Cambridge, Alan Turing, publicou um artigo, pouco conhecido, On computable numbers. O nome de Turing é quase desconhecido para o público, mas sua contribuição foi fundamental para o desenvolvimento de idéias que ocorreriam antes do computador propriamente dito tornar-se realidade. Os cientistas admitiam que a matemática não era uma arte misteriosa, e sim uma ciência inteiramente relacionada com regras lógicas. Se uma máquina recebesse essas regras e o problema a ser solucionado, ela seria capaz de resolve-lo. No entanto, os esforços dos mais competentes matemáticos foram inúteis para desenvolver tal máquina. Turing decidiu examinar o impasse de outra maneira. Verificou os tipos de problemas que uma máquina poderia resolver seguindo regras lógicas, e tentou fazer uma lista de todos eles. Turing liderou uma equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da Segunda Guerra Mundial, o Colossus, o primeiro computador eletromecânico do mundo, que pode decifrar os códigos alemães de mensagens "Enigma", durante a guerra.
Depois da guerra, Turing colaborou no projeto do primeiro computador dos Estados Unidos, o Eniac (Eletrical Numerical Integrator and Calculator), desenvolvido na Universidade da Pensilvânia desde 1943. Ainda imperfeito, era composto de 18000 válvulas, 15000 relés e emitia o equivalente a 200 quilowatts de calor. Essa enorme máquina foi alojada em uma sala de 9m por 30m. O desenvolvimento do computador continuou, mas só com a invenção do transistor de silício, em 1947, tornou-se possível aumentar a velocidade das operações na computação.
Em meados dos anos 60, os cientistas observaram que um circuíto eletrônico funcionária de modo igualmente satisfatório se tivesse o tamanho menor. Os laboratórios começaram experimentando a colocação de um projeto de circuíto no chip. Antes do fim dos anos 60, nasceu o "circuíto integrado", com isso a computação deu um grande passo à frente. O desenvolvimento de um circuíto em um único chip levou à construção de múltiplos circuítos em um só chip; e o resultado inevitável da colocação de vários chips juntos foi o começo do microprocessador.
Apesar de pouca semelhança entre a tecnologia do microchip e os diversos projetos de Babbage, Ada Lovelace e o Colossus de Turing, a "arquitetura" prática criada por Charles Babbage ainda é utilizada nos microprocessadores atuais. E a teoria matemática de Turing, que possibilitou tudo isso, ainda não foi superada.
A indústria dos computadores pessoais (PC), teve seu início em 1971 com a fabricação do primeiro microprocessador, o Intel 4004. Porém a indústria decolou somente em 1975 com Altair 8800, da MITS. Pelos padrões atuais, este kit inicial desenvolvido por Ed Roberts, líder da MITS, era bastante limitado. O kit tinha como base o microprocessador 8080 da Intel e possuia apenas 250 bytes de memória. Com um preço bem acessível, US$397, o Altair foi o primeiro computador pessoal disponível em grande escala para o público em geral.
A união de Paul Allen, um jovem programador, com um calouro da Universidade de Harvard chamado Bill Gates originou uma versão do Basic para o Altair. Mais tarde surgiria a Microsoft.
No ano de 1977 ocorreu uma explosão de interesse pelos computadores pessoais e a introdução de uma sucessão de máquinas: Commodore Pet, Radio Shack TRS-80 e Apple II, de Steve Wozniak e Steve Jobs. O Apple II desenvolveu-se rapidamente com uma econômica unidade de disco flexível e a primeira planilha eletrônica, o VisiCalc.
O restante da década viu passar vários projetos diferentes como o Vic-20 e o 64, da Commodore, a série 400 da Atari, e o TI-99, da Texas Intruments. O ramo de software começou a crescer, com a rápida aparição de uma variedade de linguagens de programação.
Em agosto de 1980, engenheiros da IBM fizeram a demonstração de um protótipo do computador pessoal chamado Acorn, com um microprocessador 8088, uma versão do chip com barramento de 8 bits e estrutura interna de 16 bits. A Microsoft assinou contrato com a IBM para o fornecimento do Basic, mais tarde também um sistema operacional chamado PC-DOS. Então em 12 de agosto de 1981 a IBM apresentou o IBM Personal Computer.
Em 1982, o PC original trazia um processador Intel 8088 de 4,7MHz, inicialmente a máquina vinha com 16Kb de RAM. Embora o PC fosse capaz de exibir gráficos, era necessário comprar uma placa de vídeo opcional para isto, já que a máquina possuia uma placa monocromática.
As limitações técnicas do PC original foi o trampolim para o desenvolvimento de outras companhias, sendo que as principais representantes da época incluíam a Tecmar, a Quadram e a AST.
Na área de software, as opções também aumentaram rapidamente, PC-DOS, CP/M-86 e UCSD p-System, todos sistemas operacionais. Quando o PC foi lançado, a IBM anunciou diversos aplicativos, incluindo o VisiCalc, o processador de textos chamado EasyWriter e o Microsoft Adventure. Embora o EasyWriter tenha sido o primeiro, produtos mais capacitados, incluindo WordStar, MultiMate e, mais tarde, o WordPerfect, fizeram com que ele desaparecesse nos anos seguintes.
Em termos de planilhas eletrônicas surgiu o Lotus 1-2-3, que enfrentou a concorrência de programas como o Context MBA, porém o 1-2-3 assumiu a liderança do mercado do PC. Assim o VisiCalc havia sido o "aplicativo definitivo" para o Apple II e o Lotus 1-2-3 representou o mesmo para o IBM PC.
Em meados de 1983, a guerra da compatibilidade com o DOS foi sendo resolvida e a partir daí o padrão PC realmente começou a se estabelecer.
Em 1982 era formada a Compaq Computer Corp. para criar um verdadeiro portátil compatível com IBM, que começou a ser comercializado em maio de 1983. Nos anos seguintes, o campo dos portáteis se tornaria mais populoso à medida que crescia a concorrência entre diversas companhias, como a Data General Texas Instruments, Toshiba, Nec e Compaq.
A Compaq lançou seu primeiro PC de mesa, o Deskpro, em julho de 1984. No mesmo ano a IBM tentou implantar o PCjr, conhecido por seu teclado sem fio com teclas minúsculas, foi um total fracasso. Porém, a IBM obteve mais sucesso em agosto, com o lançamento do PC AT. Baseado no processador 80286 da Intel, o AT possuía 256 Kb de RAM. Vários padrões importantes surgiram juntamente com o AT, especialmente o barramento de expansão de 16 bits, ou o padrão de vídeo EGA, com resolução de 640 por 350 em 16 cores.
No mesmo período a IBM e a Microsoft introduziram o DOS 3.0 e a IBM lançou o TopView, sistema que permitia a visualização de vários aplicativos simultaneamente. Tambem nesse período, a HP lançou a primeira impressora a laser.
No início dos anos 80, o Commodore 64 e a série 800 da Atari ainda eram populares, mais seus dias estariam contados, embora viessem a ressurgir como máquinas de jogos criadas pala Nintendo e Sega.
A Apple continuava seu sucesso com a família Apple II. A companhia fracassou, porém, com a introdução do Apple III e com o Lisa. O Lisa foi a primeira tentativa de popularizar a combinação de mouse, janelas, ícones e interface gráfica, porém, seu alto preço não atraíu o mercado.
No início de 1984 é lançado o Apple Macintosh, que oferecia mais que um prompt de DOS, ele apresentava várias janelas, menus suspensos e mouse. A Compaq e a Advanced Logic Research introduziram, em setembro de 1986 os primeiros PCs baseados na tecnologia 386.
No período compreendido entre 1984-1986, houve uma queda nas vendas de PCs e grande parte da imprensa esperava o PC II da IBM e pelo "novo DOS".
O mundo do PC estava pronto para algo novo, o que realmente aconteceu em setembro de 1987, com o lançamento das primeiras máquinas PS/2 da IBM, que eram disponíveis do modelo 30 (processador Intel 8086 e 8 MHz) até a versão 80 (primeira máquina da IBM baseada em 386). Mesmo sendo a HP e a Apple responsáveis pela apresentação das primeiras unidades de disco flexível 3,5 polegadas, o PS/2 fez delas um padrão. Outra inovação do PS/2 era a resolução de vídeo com o novo padrão Video Graphics Array (VGA).
O PS/2 era um grande sucesso porém, sua evidência seria um pouco ofuscada após o anúncio do novo sistema operacional desenvolvido pela IBM e Microsoft: o OS/2. Esse sistema operacional tinha duas versões, a 1.0 (1987) e 1.1 (1988).
Finalmente em 1987 seria lançado o Windows 2.0, que melhorava a interface com o usuário. Porém, um pouco adiante o Windows seria dividido em 286 e 386, sendo que o último adicionava capacidades multitarefa, execução de aplicativos em máquinas virtuais e suporte a até 16 Mb de memória. Iniciaria, portanto, a rivalidade entre o Windows e o OS/2.
Os softwares para Windows começavam a surgir, sendo que um processador de textos só chegaria no final de 1989, com o lançamento do AmiPro, e a primeira versão do Word. Entretanto, os aplicativos para OS/2 demoravam a surgir.
A era do 286 havia terminado no final de 1988, logo após a introdução no mercado do 386 SX da Intel. Mais terde surgiria o 386 original rebatizado como 386 DX. Porém, em abril de 1989, a Intel apareceu com seus processadores 486.
O mundo da computação descobriu, enfim, em maio de 1990 seu padrão, o Windows 3.0 da Microsoft. Mesmo com o lançamento do Windows 3.0, o OS/2 e o OS/2 2.0 (1992) não passavam desapercebidos. Neste momento já estava presente no mercado o Windows NT.
No início de 1991, a IBM e a Microsoft finalmente separaram suas estratégias. Mais tarde, a Microsoft transforma seu antigo OS/2 3.0 no Windows NT 3.1, concorrendo diretamente com o OS/2 da IBM. No final de 1991 a Microsoft apresenta ao público o Windows 3.1, fixando-se ainda mais como padrão e aumentando a liderança da Microsoft na definição das especificações multimídia.
A Microsoft viria a dominar outras áreas na computação neste mesmo período. Visual Basic e Visual C++ superaram a concorrência da Borland em termos de linguagem de programação. Além disso, os aplicativos da Microsoft, liderados pelo pacote Office, contendo o Word, Excel, Power Point e, mais tarde o Access tomaram grande parte do mercado de programas aplicativos.
Em março de 1993, a Intel apresentou seu processador Pentium de 60 MHz, no mesmo período os discos rígidos ficavam cada vez maiores e mais velozes, bem como a tecnologia de exibição gráfica, que progrediu muito. No lado do software, chegava ao mercado o SQL, e companhias como a Oracle e a Sybase c omeçavam a ter como alvo os desenvolvedores para PC. O correio eletrônico (e-mail) era aceito no cotidiano das corporações com produtos como o Mail.
Em 1994, a Microsoft e a Intel já estavam na liderança da indústria do PC. O Windows se estabelecia como padrão para aplicativos e as redes estavam definitivamente no mercado comum.
Estudantes da Universidade de Illinois, Mark Andressen, Eric Bina e outros que trabalhavam para o National Center for Supercomputing Applications (NCSA), desenvolveram o Mosaic, uma ferramenta utilizada para paginar a Internet, no início de 1995.
A Internet, é claro, já existia há muitos anos, desde o início dos anos 60, quando o Órgão de Defesa de Projetos de Pesquisa Avançada (DARPA), do Pentágono, estabeleceu conexões com muitos computadores de universidades. Neste período a Internet crescia, e o governo transferiu seu controle para os sites individuais e comitês técnicos. Em 1990, Tim Berners-Lee criou a Linguagem de Marcação de Hipertexto (HTML), uma maneira simples de ligar informações entre sites da Internet. Isto por sua vez, gerou a World Wide Web (www).
Logo, novas versões de paginadores da Web surgiram, como o Netscape Navigator da Netscape Corp., companhia formada por Andressen e Jim Clark, sendo este um dos fundadores da Silicon Graphics.
A grande euforia em torno da World Wide Web quase obscureceu o maior anúncio da Microsoft deste período: o Windows 95. Menos de um ano mais tarde era lançado o Windows NT 4.0, que possuía a mesma interface com o usuário e executava a maioria dos mesmos aplicativos, utilizando interfaces de programação Win 32.

AS GIGANTES VÁLVULAS DA PRIMEIRA GERAÇÃO

Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.
Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.
Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.
Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.




RESUMO DOS PRINCIPAIS FATOS

§  1834 - O inglês Charles Babbage projeta a máquina analítica capaz de armazenar informações.
§  1847 - O inglês George Boole estabelece a lógica binária para armazenar informações.
§  1890 - O norte-americano Hermann Hollerith constrói o primeiro computador mecânico.
§  1924 - Nasce a International Business Machines Corporation (IBM), nos Estados Unidos.
§  1938 - O alemão Konrad Zuse faz o primeiro computador elétrico usando a teoria binária.
§  1943 - O inglês Alan Turing constrói a primeira geração de computadores modernos, que utilizam válvulas.
§  1944 - O norte-americano Howard Aiken termina o Mark I, o primeiro computador eletromecânico.
§  1946 - O Eletronic Numerical Integrator and Computer (Eniac), primeiro computador eletrônico, é criado nos EUA.
§  1947 - Criação do transistor, substituto da válvula, que permite máquinas mais rápidas.
§  1957 - Primeiros modelos de computadores transistorizados chegam ao mercado.
§  1958 - Criação do chip, circuito integrado que permite a miniaturização dos equipamentos eletrônicos.
§  1969 - Criação da Arpanet, rede de informações do Departamento de Defesa norte-americano interligando universidades e empresas, que dará origem à Internet.
§  1974 - A Intel projeta o microprocessador 8080, que origina os microcomputadores.
§  1975 - Os norte-americanos Bill Gates e Paul Alen fundam a Microsoft.
§  1976 - Lançamento do Apple I, primeiro microcomputador comercial, inventado por Steves Jobs e por Steves Woznick.
§  1981 - A IBM o lança seu microcomputador - o PC - com o sistema operacional MS-DOS, elaborado pela Microsoft.
§  1983 - A IBM lança o PC-XT, com disco rígido.
§  1984 - A National Science Foundation, nos Estados Unidos, cria a Internet, rede mundial de computadores que conecta governos, universidades e companhias.
§  1984 -- A Apple lança o Macintosh, primeiro computador a utilizar ícones e mouse.
§  1985 - A Microsoft lança o Windows para o PC, que só obtém sucesso com a versão 3.0 (1990).
§  1993 - A Intel lança o Pentium.
§  1998 - A Intel lança o Pentium II.
§  1999 - A Intel lança o Pentium III.




CONCLUSÃO
Conclui-se que o computador foi criado por causa das necessidades humanas e através de pesquisas e dos avanços tecnológicos foi tornando-se cada vez mais prático, rápido e com componentes cada vez mais modernos que facilitam o trabalho do homem.