OS COMPUTADORES FAZEM DIFERENÇA? | aU - Arquitetura e Urbanismo

Artigo

OS COMPUTADORES FAZEM DIFERENÇA?

SAIBA COMO OS INCRÍVEIS RECURSOS DA INFORMÁTICA SE DESENVOLVERAM  

Edição 140 - Novembro/2005

Em outubro de 1998, a ACADIA (Association for Computer-Aided Design in Architecture) realizava seu congresso anual em Québec, Canadá, adotando como tema a questão Digital Design Studios - Do Computers Make a Difference? Na ocasião os organizadores do evento pretendiam avaliar as possíveis modificações provocadas pelo uso intensivo de recursos computacionais na prática do ensino de projeto da arquitetura.

Um balanço interessante naquele momento em que, na América do Norte, o uso do computador em arquitetura já ia muito além do detalhamento do projeto executivo e integrava a etapa de concepção como uma ferramenta auxiliar do processo criativo pela sua facilidade em simular as muitas possibilidades imaginadas pelo arquiteto. Além de, mais do que isso, permitir novos e inéditos insights, a partir do que ela, em si mesma, representava e possibilitava como algo novo.

Uma questão, todavia, ainda atual 50 anos depois de o pesquisador Patrick J. Hanratty ter desenvolvido o primeiro programa comercial de controle numérico para produção de manufaturas, o sistema Pronto. Façanha realizada em 1957 e que lhe rendeu o título de "pai do CADD/CAM", ou seja, criador do Computer Aided Drafting and Design/Computer Aided Manufacturing.

Afinal, depois disso, muita água já rolou por baixo da ponte e muitos bits já foram processados pelas CPUs, mas ainda há quem se pergunte: os computadores fazem diferença? Uma pergunta instigante cuja resposta impõe um olhar sobre o passado num momento em que ainda imperavam os conceitos tradicionais de espaço e tempo associados ao desempenho das funções produtivas, um legado deixado pela era mecânica da Revolução Industrial. Um momento quando se iniciava uma vertiginosa jornada que, ao longo deste último meio século, revolucionou o modo de vida da sociedade e, por conseqüência, a maneira de se pensar e fazer a arquitetura.

Uma jornada que começou com um desconcertante feito tecnológico apresentado ao mundo pela Universidade da Pennsilvânia no outono de 1945: o ENIAC - Electrical Numerical Integrator and Calculator, o primeiro computador eletrônico. Um verdadeiro dinossauro que pesava cerca de 30 toneladas, tinha 19 mil válvulas catódicas que começavam a queimar dois minutos após o início de seu funcionamento e despendiam 200 quilowatts para somar, subtrair, multiplicar, dividir, comparar quantidades e, até, extrair raiz quadrada realizando, é claro, uma única operação de cada vez.

No entanto, em 60 anos esse dinossauro evoluiu a ponto de nos permitir ter à mão minúsculos aparelhos capazes de se conectar com outros semelhantes em qualquer parte do mundo não apenas para transmitir voz - como fez a dispendiosa estação transmissora de Marconi, em 18 de janeiro de 1903, com suas quatro torres de cerca de 64 m de altura, que na ocasião consumiram 20 mil volts fornecidos por um barulhento gerador movido a querosene -, mas também imagens, sons e animações, ao vivo e em cores, levando o conceito de extensão dos sentidos, proposto por McLuhan, nos anos 70, a um extremo inédito na história da humanidade, que faz do homem contemporâneo um ser virtualmente onipresente.

Dá pra imaginar que há apenas 20 anos todos esses recursos à sua volta simplesmente não estavam disponíveis para os simples mortais, se é que existiam? E que fazer um projeto de arquitetura, muito além de esboçar criativos croquis, significava gerenciar um penoso processo de produção manual de inúmeras pranchas de desenho compatíveis entre si e que, uma vez submetidas à apreciação dos clientes, precisavam ser raspadas uma a uma com lâmina e borracha de areia, para serem atualizadas? Isso quando não eram simplesmente descartadas, face à dificuldade de revisá-las.


DIFÍCIL, NÃO É MESMO?

Sentado à frente de seu computador pessoal, utilizando com desenvoltura o seu aplicativo CAD e todos os demais recursos e plug-ins que esta ferramenta multitarefa pode lhe oferecer, nem dá para supor que a primeira ferramenta semelhante a essa, e que hoje se tornou banal nos escritórios de arquitetura, foi montada numa máquina que ocupava uma área de aproximadamente 93 m2. Todo esse espaço para um equipamento de 320 Kb de memória, apoiado por um sistema de armazenamento de dados em fita magnética, com 8 Mb de capacidade e um monitor de 7", com definição de 1024 x 1024, sobre o qual se utilizava uma caneta especial para traçar desenhos.
Pois foi assim. Era o Sketchpad, parte da tese de doutorado desenvolvida por Ivan Sutherland em 1963 no Lincoln Laboratory do MIT (Massachusetts Institute of Technology). O Sketchpad representou uma verdadeira revolução ao introduzir pioneiramente o conceito de interface gráfica - GUI, ou Graphical User Interface - que somente 20 anos depois seria incorporado ao cotidiano dos computadores pessoais, primeiro pelo sistema operacional MAC-OS e, uma década depois, pelo Windows 95.

Difícil também imaginar, a partir dos aplicativos CAD de última geração, que trabalham com metáforas de arquitetura num ambiente 3D, gerando automaticamente paredes, lajes, caixilhos, esquadrias e telhados, que essa ferramenta, na verdade, nasceu focada na produção de manufaturas, no chão da fábrica. Muito distante, portanto, dos sofisticados e complexos edifícios a que permitiria dar forma em nossos dias.

É o caso, por exemplo, do Catia (Computer Aided Three Dimensional Interactive Application), utilizado por Frank Gehry para concretizar o paradigmático Museu Guggenheim de Bilbao. O Catia foi desenvolvido pela Dassault Systemes, subsidiária da francesa Avions Marcel Dassault que, em parceria com a IBM, lançou, em 1982, a primeira versão comercial do aplicativo que, na verdade, já vinha sendo utilizado pela empresa desde 1975, época em que adquiriu a licença de uso do código fonte de um outro aplicativo 2D, o Cadam (Computer Augmented Drafting and Manufacturing), desenvolvido pela concorrente americana Lockheed.

FOCO DE MERCADO?

As poderosas indústrias automobilística e aeroespacial da época buscavam a automatização de suas rotinas de projeto, desenho e execução de manufaturas, com o objetivo de garantir precisão e redução de custos, dois quesitos absolutamente críticos no setor. Empresas para as quais o custo de montagem e manutenção de enormes CPDs - Centros de Processamento de Dados, não era exatamente um grande problema. Fator que, no entanto, limitava a disseminação do uso da nova tecnologia e que só seria superado a partir dos anos 80, depois de sucessivos avanços tecnológicos.

O primeiro desses avanços foi a invenção do transistor, anunciada ao mundo em 1948 pela Bell Telephone Laboratories, a partir do trabalho realizado pelos físicos norte-americanos John Bardeen, Walter H. Brattain e William Shockley, que desenvolveram um novo componente - o semicondutor - capaz de produzir a interrupção da passagem da corrente elétrica, da mesma forma que o sistema de raios catódicos das válvulas, mas de uma forma muito mais simples, menor e, o que é melhor, muito mais barata.

O segundo, somente dez anos depois, ocorreu quando Jack Kilby, da Texas Instruments, criou o primeiro circuito integrado reunindo, numa única peça de semicondutor, vários componentes além do transistor, tendo como resultado um pequeno objeto achatado que recebeu o carinhoso apelido de "chip", pela analogia com uma lasca, um fragmento. O chip que se tornaria responsável pela função principal dos computadores: o processamento de dados.


Nascia, assim, a CPU (Central Process Unit) que, a partir de então, e obedecendo rigorosamente à Lei de Moore, dobraria a sua capacidade de processamento a cada ciclo de 18 meses, na razão inversa ao seu próprio tamanho, viabilizando computadores cada vez menores, mais baratos e mais potentes.

Um avanço tecnológico que entusiasmou outras empresas, como a DEC (Digital Equipment Corp) que, já em 1962, lançava aquele que é considerado o primeiro minicomputador, um equipamento capaz de processar palavras de 8 a 16 bits e de armazenar 64 mil bytes na memória o que, mais adiante, causaria um grande impacto permitindo que empresas de médio porte também ingressassem na era da informática. Perspectiva que, em 1968, estimulou três jovens engenheiros a criarem uma empresa com o objetivo de produzir memórias para computadores, cuja razão social você certamente conhece e que corresponde à abreviatura de Integrated Eletronics: a Intel Corporation. Eram eles Robert Noyce, Andy Grove e Gordon Moore - o autor da lei.

Depois de produzirem o chip 3101 Schottky, de memória de acesso randômico (SRAM) de 64 bits, lançaram, em 1971, o microprocessador 4004, primeiro chip lógico, cujo uso poderia ser programado por software. Após sucessivas versões, em 1974 o 4004 se transformaria no microprocessador 8080 que viabilizaria o aparecimento do primeiro computador pessoal.

Uma história controversa, posto que o termo "microcomputador" foi utilizado pela primeira vez na imprensa americana em 1972 para designar um protótipo francês chamado Micral que, no entanto, não teve sucesso comercial. Todavia, há um certo consenso em se estabelecer como primeiro computador pessoal o kit para montar anunciado pela revista americana Popular Electronics, em 1975. Desenvolvido pela MITS (Micro Instrumentation and Telemetry Systems), sob o comando de H. Edwards Roberts, o kit denominado Altair foi usado como estratégia para tirar a companhia do rumo de uma falência.

Na verdade um produto extremamente limitado, cujo único mérito parece ter sido atrair a atenção de alguns jovens entusiastas da microeletrônica que se tornariam os verdadeiros profetas da Nova Era. Um deles era Paul Allen, que recusou convite da própria MITS e se associou a um jovem estudante de Harvard, Willian Gates, para criar uma empresa desenvolvedora de software à qual deram o sugestivo nome de Microsoft. Outro daqueles jovens foi Steve Wozniack, que deixou seu emprego na HP para dedicar-se ao desenvolvimento de uma pequena traquitana produzida a partir de sucata das grandes empresas de informática, seguindo o conselho de um amigo, Steve Jobs, que, então, se entusiasmou tanto pelo projeto que vendeu a sua Kombi para financiar a criação de uma empresa. Foi assim que, no dia 1o de abril de 1976, a empresa de Wozniack e Jobs lançou o primeiro computador pessoal, o Apple I...

Até ali, no entanto, um computador pessoal era pouco mais do que um videogame. A grande virada só viria com o lançamento, em 1981, do primeiro PC da IBM que, em razão de sua arquitetura aberta, permitiria que outros fabricantes produzissem placas, periféricos e programas, tornando-se extremamente popular.

Em sua esteira, surgiria a Autodesk fundada em 1982, ano em que apresentou o AutoCAD Release 1, primeiro aplicativo CAD desenvolvido para computadores pessoais e que, já em 1984, conheceria o seu primeiro concorrente, o Microstation, desenvolvido pela Bentley Systems. Os usuários do Macintosh tiveram que esperar um pouco mais, até 1985, quando a Diehl Graphsoft foi fundada e lançou o MiniCAD, base do atual VectorWorks que, a partir de 1989 enfrentaria a concorrência do ArchiCAD da Graphisoft Company. O ArchiCAD, na verdade, começara a ser desenvolvido em 1984 na Hungria, ainda sob domínio soviético, pelo físico Gabor Bajor, que conseguira contrabandear dois Macs para o seu país.


Estavam lançadas as bases para a construção do cenário atual. No entanto, viria mais. O desenvolvimento da computação gráfica, como já se viu, geraria um corolário: a GUI, ou Graphic User Interface ¿ isto é, a interface gráfica. Esta, por sua vez, se tornara possível a partir da programação orientada ao objeto que, trabalhando com metáforas gráficas de objetos do cotidiano, transformava os comandos usados para dar instruções ao computador em simples "cliques" sobre imagens apontadas na tela do monitor por um "mouse", implemento desenvolvido por Douglas C. Engelbart, em 1964.

Um conceito revolucionário que permitiu o desenvolvimento de sistemas operacionais gráficos que, além de acessíveis ao cidadão comum, permitiam padronizar os aplicativos e integrá-los. Assim, os computadores pessoais foram transformados em poderosas máquinas multitarefa que abrem a possibilidade do intercâmbio de arquivos de diferentes características. E não demorou muito para que se percebesse o potencial de comunicação dessa nova tecnologia, que se traduziria no hipertexto, logo sucedido pela hipermídia, em que os vínculos (hyperlinks) proporcionados pela programação orientada ao objeto permitiam que uma palavra ou ícone, marcados por cor ou apenas sublinhados, trouxessem embutida uma nova informação, que podia ser um texto complementar ou, como rapidamente se percebeu, uma imagem, ou um som, ou um vídeo. Viabilizando, desse modo, um novo processo de comunicação, muito mais dinâmico e rico em informação, em que o usuário podia saltar entre conteúdos de acordo com o seu próprio interesse, como se estivesse "navegando" pelo conhecimento.

Paralelamente a esse processo, vinha-se desenvolvendo o conceito de rede de computadores que, com a Arpanet, já em 1969, atingira uma escala internacional formando a internet que, sempre crescendo exponencialmente, em 1989 adotaria o conceito de hipertexto para transmitir informações, desencadeando um trabalho de pesquisa que em 1990 culminaria com o lançamento de html (Hyper Text Markup Language, Linguagem de Marcação de Hipertexto em português), um conjunto de instruções que informam ao sistema como devem ser exibidos os textos e imagens que compõem uma página web, e onde ir buscar a informação cada vez que um link é ativado ¿ o URL (Universal Resource Locator) do arquivo.

Nascia, então, a www - a World Wide Web que, num clicar de mouse, seria assimilada pelo mundo corporativo, transformando completamente os padrões de comportamento da sociedade contemporânea, viabilizando o trabalho à distância, individual ou em equipes colaborativas com parceiros remotos. Só faltava mesmo que a tudo isso fosse acrescentada a mobilidade, o que já vem acontecendo há algum tempo, desde que a telefonia móvel começou a ser difundida e abandonou o sistema analógico para adotar o digital.

Atualmente vivemos a era do 3G, um conceito que abrange várias tecnologias para redes de telefonia sem fio, incluindo CDMA200, UMTS, WCDMA e EDGE, combinando acesso móvel de alta velocidade com serviços baseados em IP (Internet Protocol) e que tem como objetivo viabilizar acesso móvel e rápido à internet.


E, então, os computadores fazem diferença?
Para William Mitchell, responsável pelo Media Arts & Sciences do MIT, fazem muito mais do que diferença. Na verdade, conforme afirmou em Viena, em recente palestra no congresso CAAD Futures 2005, estamos assistindo à emergência de uma verdadeira arquitetura da era digital. Segundo Mitchell, antes da utilização dos recursos computacionais em arquitetura, os edifícios eram "materializações de desenhos" e, agora, são materializações de informações digitais "projetadas e documentadas em sistemas CAD, fabricadas a partir de máquinas controladas digitalmente e montadas no local com o apoio de equipamentos digitais de posicionamento".

Assim, deve ser a partir da estrutura de mediação digital da elaboração e desenvolvimento do projeto e da construção que se deve avaliar a qualidade embutida no projeto e na construção de um edifício no mundo contemporâneo. Tal como na indústria automotiva, os recursos computacionais foram utilizados inicialmente em arquitetura como uma forma de reduzir os custos da produção, com prejuízo da criatividade pela imposição de sistemas de padronização. No entanto, com a evolução da gráfica digital, os novos recursos incorporados viabilizaram economicamente a concepção de uma complexidade formal inédita, permitindo aos arquitetos irem muito além da simples sedução por formas surpreendentes, em busca de novos caminhos que atendam às demandas da sociedade contemporânea.

Numa palavra, em direção a uma autêntica arquitetura da era digital.


Eduardo Nardelli é arquiteto pela Universidade Presbiteriana Mackenzie e membro da SIGRADI (Sociedade Ibero-americana de Gráfica Digital)

Veja também

aU - Arquitetura e Urbanismo :: aU Educação :: ed 244 - Julho de 2014

TCU de Alagoas, de João Filgueiras Lima, Lelé