Content uploaded by Camilo Cifuentes
Author content
All content in this area was uploaded by Camilo Cifuentes on Apr 21, 2016
Content may be subject to copyright.
NARRATIVAS CIBERNÉTICAS Y ARQUITECTURA COMPUTACIONAL
Autor: Camilo Andrés Cifuentes Quin
Director: Dr. Joaquim Regot Marimon
Co-director: Dr. Pau de Sola Morales
Programa de Doctorado en Comunicación Visual en Arquitectura y Diseño
Escuela Técnica Superior de Arquitectura de Barcelona – Universidad Politécnica de Cataluña
Agradecimientos
Debo mi reconocimiento a diversas entidades y personas que, de una u otra manera, han contribuido
a la conclusión de este trabajo:
A Colciencias; gracias a su aporte económico he podido dedicar los últimos cuatro años a la dulce
labor de aprender. Espero contribuir a que otros estudiantes colombianos puedan seguir el mismo
camino.
A mis padres y a mis hermanos, por su apoyo incondicional en todas mis empresas.
A Céline, por haberme acompañado en el camino; y a toda la familia Rouchy, por haberme acogido
como un miembro más de la familia.
A María Cecilia O´byrne, Sandra Corredor, y las demás personas en la Universidad de Los Andes cuya
ayuda fue definitiva para postular mi candidatura a la beca “Francisco José de Caldas”.
A mis directores de tesis, Joaquim Regot Marimon, por su constante apoyo durante estos cuatro
años, y Pau De Sola Morales, por el entusiasmo que le inyectó a mi trabajo desde nuestro encuentro
en ELISAVA.
A los evaluadores que leyeron y comentaron mi trabajo, Daniel Cardoso Llach y Rodrigo García
Alvarado; sus valiosas observaciones han sido de gran ayuda para afinar el argumento y aclarar
ciertos conceptos.
A Philippe Liveneau, por haberme invitado a formar parte de equipo pedagógico del máster
“Ambiances, Architecture et Culture Numérique” en la escuela de arquitectura de Grenoble. Esta
experiencia ha sido enriquecedora tanto a nivel personal como para mi trabajo de investigación.
A María Ruiz, quien gracias a sus incontables gestiones me ha permitido concentrarme en mi trabajo
sin perderme en los insondables laberintos burocráticos.
A los amigos que me acogieron durante los periodos nómadas: Carolina Almeida, Tomás Piquero,
David Abondano, Manuela Ianini, Daniel Sadaba, Ghislaine Etié, Dries Verheyen, Sara Bynens y,
especialmente, Angélique Gudefin y Thomas Thivent, mis ángeles de la guarda comprobados.
A todos los demás amigos que alegraron mis horas dentro y fuera de las bibliotecas.
Índice
1. Introducción........................................................................................................................................................ 9
1.1 Descripción del argumento ................................................................................................................. 9
1.2 La arquitectura computacional ......................................................................................................... 11
1.3 Arquitectura y computación: ¿determinismo o mediación? ............................................................ 13
1.4 Cultura informática y pensamiento cibernético ............................................................................... 19
1.5 La cibernética como paradigma: Hipótesis ....................................................................................... 23
1.6 Paradigma situado: Objetivo ............................................................................................................. 25
1.7 Conceptos nómadas: Metodología ................................................................................................... 27
1.8 Estructura de la disertación .............................................................................................................. 29
1.9 Implicación en el campo ................................................................................................................... 32
2. Revisión de la literatura ................................................................................................................................... 33
2.1 Resumen ........................................................................................................................................... 33
2.2 Cultura y tecnología .......................................................................................................................... 34
2.2.1 ¿Determinismo o neutralidad de la técnica? ................................................................................ 34
2.2.2 Objetos híbridos ............................................................................................................................. 39
2.2.3 Diseñar un mundo tecnológicamente mediado ............................................................................. 40
2.2.4 Transcodificación informática ........................................................................................................ 41
2.3 Teoría cibernética ............................................................................................................................. 43
2.3.1 Entropía, información y retroalimentación .................................................................................... 45
2.4 La expansión del modelo cibernético ............................................................................................... 48
2.4.1 La cibernética y la informática ....................................................................................................... 48
2.4.2 La utopía de la comunicación ......................................................................................................... 50
2.4.3 Un modelo universal ...................................................................................................................... 51
2.4.4 La informatización del saber .......................................................................................................... 53
2.4.5 El imperio cibernético .................................................................................................................... 55
2.5 El paradigma cibernético en la arquitectura ..................................................................................... 57
2.6 Narrativas cibernéticas ..................................................................................................................... 60
3. El performance de la arquitectura ................................................................................................................... 63
3.1 Resumen ........................................................................................................................................... 63
3.2 El performance de la arquitectura .................................................................................................... 64
3.3 El rendimiento y el comportamiento de la arquitectura .................................................................. 66
3.4 El origen cibernético del Performance Design .................................................................................. 70
3.5 Analogías cibernéticas en el diseño performativo ............................................................................ 75
3.6 Conclusión ......................................................................................................................................... 80
4. Sistemas ............................................................................................................................................................ 83
4.1 Resumen ........................................................................................................................................... 83
4.2 La teoría general de sistemas ............................................................................................................ 84
4.3 Organización, totalidad y teleología ................................................................................................. 85
4.4 los isomorfismos y la unidad de la ciencia ........................................................................................ 86
4.5 El pensamiento sistémico ................................................................................................................. 88
4.6 El pensamiento sistémico y la cibernética ........................................................................................ 91
4.7 La arquitectura y el pensamiento sistémico ..................................................................................... 96
4.8 La visión holística .............................................................................................................................. 99
4.9 Arquitecturas sistémicas ................................................................................................................. 101
4.10 La autonomía de la arquitectura ................................................................................................... 103
4.11 Analogías orgánicas ...................................................................................................................... 105
4.12 Sistemas homeostáticos, emergentes y evolutivos ..................................................................... 107
4.13 Arquitecturas bio-mórficas y bio-miméticas ................................................................................ 109
4.14 Conclusión .................................................................................................................................... 111
5. Mecanismos genéticos ................................................................................................................................... 113
5.1 Resumen ......................................................................................................................................... 113
5.2 La biología molecular y el pensamiento informacional .................................................................. 114
5.3 Del pensamiento informacional en la biología a la biología computacional................................... 116
5.4 La biología computacional .............................................................................................................. 119
5.5 Algoritmos genéticos ...................................................................................................................... 121
5.6 Sistemas de Lindenmayer ............................................................................................................... 123
5.7 La cibernética y el pensamiento informacional en la biología ........................................................ 125
5.8 El paradigma genético en la arquitectura ....................................................................................... 128
5.9 Una arquitectura evolutiva ............................................................................................................. 131
5.10 Arquitecturas genéticas ................................................................................................................ 135
5.11 La dimensión utópica .................................................................................................................... 138
5.12 Los maginarios genéticos y el zeitgeist digital .............................................................................. 143
5.13 Conclusión ..................................................................................................................................... 144
6. Fenómenos complejos .................................................................................................................................... 145
6.1 Resumen ......................................................................................................................................... 145
6.2 El pensamiento de la complejidad .................................................................................................. 146
6.3 Sistemas Complejos ........................................................................................................................ 149
6.4 Emergencia y Auto-organización .................................................................................................... 151
6.5 El pensamiento de la complejidad y la cibernética ......................................................................... 155
6.6 La arquitectura como un sistema complejo .................................................................................... 158
6.7 La formación emergente y auto-organizada de la arquitectura .................................................... 161
6.8 La computación material de la arquitectura ................................................................................... 166
6.9 Conclusión ....................................................................................................................................... 175
7. Una mirada crítica .......................................................................................................................................... 177
7.1 Hacia una mirada crítica de la producción computacional de la arquitectura................................ 177
7.2 Utopías, prototipos y ecologías ....................................................................................................... 177
7.3 Utopías: ¿el proyecto como crítica o la arquitectura de ciencia ficción? ....................................... 179
7.4 Prototipos: ¿la técnica como medio o como fin? ............................................................................ 180
7.5 Ecologías: ¿ sistemas retroalimentados o la retroalimentación como estrategia retórica? ........... 181
7.6 El backhand y el forehand platónico en la arquitectura computacional ........................................ 182
7.7 El análisis como herramienta ......................................................................................................... 184
8. Conclusiones ................................................................................................................................................... 185
8.1 Narrativas cibernéticas y arquitectura computacional ................................................................... 185
8.2 Alcance y limitaciones del estudio .................................................................................................. 192
8.3 Perspectivas de investigación ......................................................................................................... 195
9. Anexo .............................................................................................................................................................. 197
9.1 Resumen ......................................................................................................................................... 197
9.2 La concepción atmosférica de la arquitectura ................................................................................ 198
9.3 El diseño paramétrico ..................................................................................................................... 199
9.4 Integración del modelado paramétrico y la concepción atmosférica del espacio .......................... 200
9.5 El modelo ........................................................................................................................................ 202
9.6 El modelo aplicado .......................................................................................................................... 209
9.7 El modelo en el estudio de diseño .................................................................................................. 210
9.8 Conclusiones preliminares sobre el potencial del modelo para la pedagogía de los ambientes ... 211
10. Bibliografía .................................................................................................................................................... 215
1. Introducción
9
1. Introducción
Today the World is message, codes and information.
Tomorrow what analysis will break down our objects or
reconstitute them in a new space? What new Russian doll
will emerge?
François Jacob.
1.1 Descripción del argumento
Esta disertación pretende contribuir a la comprensión del
rol acordado a las tecnologías de la información en la
arquitectura. Con este propósito se presenta una mirada
a algunos de los modelos dominantes desarrollados en el
campo de la arquitectura computacional, desde la
perspectiva de la relación entre la introducción de las
herramientas informáticas en la profesión y la
construcción de sus problemas disciplinares en referencia
a una serie modelos de pensamiento herederos de los
discursos de la información.
Más precisamente, el análisis planteado constituye un
estudio de la influencia de las ideas centrales del
pensamiento cibernético en las prácticas contemporáneas
de arquitectura computacional. De este modo se aspira a
mostrar de qué manera algunas de las más influyentes
construcciones de los problemas arquitectónicos en este
campo se han elaborado alrededor del paradigma de
pensamiento teorizado por Norbert Wiener y sus colegas.
Parafraseando a François Jacob, el mundo de los
arquitectos digitales es el mundo de los mensajes, los
códigos y la información. El principal interés de este
1.1 Description de la problématique
Cette thèse entend contribuer à la
compréhension du rôle accordé aux
technologies de l’information en
architecture. Dans cette optique une
attention sera portée à quelques modèles
majeures développés dans le champ de
l’architecture digitale, depuis la perspective
de la relation entre l’introduction des outils
informatiques en architecture et la
construction de ses problématiques
disciplinaires en référence à une série de
modèles de pensée hérités des discours de
l’information.
Plus précisément l’analyse proposée
constitue une étude de l’influence des idées
centrales de la pensée cybernétique dans les
pratiques contemporaines de l’architecture
digitale. Dans ce sens cette thèse aspire à
montrer de quelle manière quelques uns des
modèles les plus influents dans ce domaine
se sont construits autour du paradigme de
pensée théorisé par Norbert Wiener et ses
collègues. Partant de ce premier postulat on
peut affirmer, paraphrasant François Jacob,
que le monde de l’architecture digitale est le
monde des messages, des codes et de
l’information. Le principal intérêt de cette
thèse est d’explorer dans quels sens ce
postulat résume le paradigme à l’intérieur
duquel s’est développé la perspective
digitale en architecture.
Avec cet objectif une série de modèles
développés dans le domaine de
l’architecture digitale seront examinés, en se
basant sur un mode d’analyse qui considère
ses productions comme ce que Bruno Latour
nomme « travail de médiation ». Autrement
dit, comme processus résultants de la
complexe rétro alimentation entre différents
facteurs qui incluent les problèmes
disciplinaires traditionnels de l’architecture,
ses aspects technologiques et une série de
références croisées de différents modèles de
pensée hérités du paradigme cybernétique.
A travers cette exploration, ce travail de
recherche aspire à montrer de quelle
manière les imaginaires de l’architecture qui
se sont construits avec l’exploration
numérique des problèmes de conception,
constituent des réflexions autour d’une série
d’idées, indissociables de l’origine de
l’informatique, qui ont joué un rôle relevant
dans la pensée contemporaine depuis la
10
trabajo es explorar en qué medida este es el paradigma
dentro del cual se ha desarrollado la perspectiva
computacional en la arquitectura.
Con este fin se examinan una serie de construcciones de
los problemas arquitectónicos desarrolladas en el campo
de la arquitectura computacional, en referencia a un
modo de análisis desde el cual sus producciones son
consideradas como lo que Bruno Latour llama un “trabajo
de mediación”. Es decir, como el resultado de la compleja
retroalimentación entre diferentes factores, que en este
caso incluyen los problemas disciplinares tradicionales de
la arquitectura, sus aspectos tecnológicos y una serie de
referencias cruzadas a diferentes discursos tecno-
científicos herederos del paradigma cibernético.
Mediante esta exploración se aspira a mostrar de qué
modo los imaginarios de la arquitectura que se han
consolidado junto con la exploración computacional de los
problemas de diseño constituyen reflexiones alrededor de
una serie de ideas, indisociables del desarrollo de la
informática, que han jugado un papel relevante en el
pensamiento contemporáneo desde la formulación de la
teoría cibernética a mediados del siglo XX. La comprensión
de lo anterior es fundamental para entender las
condiciones intelectuales que han estructurado el
pensamiento arquitectónico en este campo, conocimiento
necesario para desarrollar un análisis crítico de sus
producciones.
***
Respecto a este último punto el análisis planteado incluye
una reflexión, presentada al final del análisis, del influjo
cibernético en las producciones digitales de la
arquitectura. Este análisis señala una tendencia, bastante
formulation de la théorie cybernétique au
milieu du XXe siècle. La compréhension de
cela est fondamentale pour comprendre les
conditions intellectuelles qui ont structurées
la pensée architectonique dans ce domaine ;
c’est une connaissance nécessaire pour
développer une analyse critique de ses
productions.
***
En rapport avec ce dernier point, l’étude
proposée inclut une réflexion, présentée à la
fin de l’analyse, de l’influence de la pensée
cybernétique dans les productions
numériques de l’architecture, qui indique
une tendance, assez commune parmi les
productions dans ce domaine, qui consiste à
passer de la définition de scénarios pour la
production de l’architecture basés sur des
discours et technologies informationnelles, à
la définition de scénarios dans lesquels ces
recours (discours et technologie)
s’autonomisent de la multiplicité des
facteurs qui définissent les problèmes
disciplinaires de l’architecture.
En présentant un ample panorama qui
identifie les conditions intellectuelles sur
lesquelles se sont structurées les productions
numériques de l’architecture, l’étude permet
d’analyser les possibles causes de cette
tendance, en même temps qu’il indique les
potentiels du modèle cybernétique pour
penser une architecture qui ne se trouve pas
limitée à des fictions cyber-technologiques.
1.2 L’architecture digitale
Il est important de préciser que le concept
d’architecture digitale, ou dessin numérique,
s’emploie ici pour définir les approches du
dessin architectonique basées sur l’usage de
techniques informatiques – telles que les
modèles de formation, paramétriques et
génératives – qui proposent des alternatives
aux paradigmes établis de la conception
architecturale, et qui s’associent, plus
qu’avec des nouvelles techniques de dessin
et représentation, avec des questions
comme l’exploration de processus
dynamiques pour déduire la forme
architectonique, l’inclusion de l’information
comme nouveau type d’entrée pour la
conception et l’automatisation des
processus de projection à travers l’usage des
techniques algorithmiques.
1. Introducción
11
común entre las elaboraciones en este campo, que
consiste en pasar de la definición de escenarios para la
producción de la arquitectura apoyados en discursos y
tecnologías informacionales, a la definición de escenarios
en los que estos recursos (discursos y tecnologías) se
autonomizan de los múltiples factores que definen los
problemas disciplinares de la arquitectura.
Al presentar un panorama amplio que identifica las
condiciones intelectuales sobre las que se han
estructurado las producciones digitales de la arquitectura,
el estudio planteado permite analizar las posibles causas
de esta tendencia, al tiempo que señala el potencial del
modelo cibernético para pensar una arquitectura que no
se encuentre enfrascada en ficciones ciber-tecnológicas.
1.2 La arquitectura computacional
Es importante aclarar que el concepto de arquitectura
computacional, o variaciones del mismo como diseño
digital, se emplea aquí para definir las aproximaciones al
diseño arquitectónico basadas en el empleo de técnicas
informáticas – como los modelos de formación,
paramétricos y generativos – que plantean alternativas a
los paradigmas de diseño establecidos. Estos modelos se
asocian, más que con nuevas técnicas de representación
de la arquitectura, con cuestiones como la exploración de
procesos dinámicos para deducir la forma arquitectónica,
la inclusión de la información como un nuevo tipo de
insumo para el diseño, y la automatización de los procesos
de proyectación a través del uso de técnicas algorítmicas.
1
1
A pesar de haber ganado particular atención en los últimos años, este tipo de aproximación tiene sus orígenes en los años
sesenta del siglo pasado, periodo en el cual, de la mano con la expansión de la informática, la introducción de la
computación en la arquitectura comenzó a consolidarse como un campo de investigación en algunas universidades del
Reino Unido, principalmente en Cambridge, y posteriormente en Estados Unidos (Rocha, 2004).
Plus important encore, le développement et
l’évolution de ce type d’approche de la
conception ne s’est pas basé exclusivement
sur l’introduction de nouveaux outils
digitaux dans la profession, mais également
dans la redéfinition des problèmes en
architecture en référence aux nouveaux
modèles de pensée intimement liés à
l’émergence de la culture informatique.
D’après Kostas Terzidis, la pratique du
numérique est liée au processus de
déterminer une chose/objet avec des
méthodes mathématiques ou logiques. En
conséquence, l’usage du numérique en
architecture est associé aux notions telles
que « rationalisation, logique, algorithme,
déduction, induction, extrapolation, et
estimation », et contient des aspects tels que
«la résolution de problèmes, les structures
mentales, la cognition, la simulation et
l’intelligence basée sur des règles »
(Terzedis, 2006, p. xi)
En architecture l’emploi de ces notions a été
exploré à travers le développement de
nouveaux cadres conceptuels qui incluent
des références à divers champs de
connaissance. Par exemple, la définition
algorithmique des processus de projection
s’est liée avec la construction d’analogies sur
les mécanismes de la génétique des
organismes, tandis que l’exploration de
l’objet architectural comme un système
adaptatif et dynamique s’est associé avec les
phénomènes d’auto-organisation et
émergence tels qu’ils ont été conceptualisés
dans la pensée de la complexité.
Cet aspect caractéristique des pratiques de
l’architecture digitale a été mis en exergue
par plusieurs théoriciens (Picon, Kolarevic,
Oxman, Hight, Kwinter) qui se sont
demandés comment l’évolution de la
perspective numérique en architecture a eu
lieu en même temps que la construction de
problèmes disciplinaires en référence à
plusieurs modèles de pensée influents dans
la culture contemporaine.
12
Es relevante insistir en que el desarrollo y la evolución de
este tipo de aproximaciones no se ha basado
exclusivamente en la introducción de nuevas herramientas
digitales en la profesión, sino en la redefinición de los
problemas de la arquitectura en referencia a nuevos
modelos de pensamiento íntimamente relacionados con la
consolidación de la cultura informática. Según Kostas
Terzidis el concepto de computación se relaciona con el
proceso de determinar algo por métodos matemáticos o
lógicos. En consecuencia, el empleo de la computación en
la arquitectura se ha asociado con nociones como
“racionalización, lógica, algoritmo, deducción, inducción,
extrapolación, exploración y estimación”, y ha envuelto
aspectos como “la resolución de problemas, las
estructuras mentales, la cognición, la simulación y la
inteligencia basada en reglas.” (Terzedis, 2006, p. xi)
En el campo de la arquitectura la aplicación de estas
nociones a los problemas de diseño ha sido explorada
mediante el desarrollo de nuevos marcos conceptuales
que incluyen referencias a diferentes campos del
conocimiento. Por ejemplo, la definición algorítmica de los
procesos de diseño se ha relacionado con la construcción
de analogías sobre los mecanismos de la genética en los
organismos, mientras que la exploración de los objetos
arquitectónicos como sistemas adaptativos y dinámicos
se ha asociado con los fenómenos de auto-organización y
emergencia, tal como estos han sido conceptualizados en
el pensamiento de la complejidad.
Este aspecto, característico de las prácticas de
arquitectura computacional, ha sido señalado por varios
teóricos (Picon, Kolarevic, Oxman, Hight, Kwinter) que han
indagado cómo la evolución de este campo ha venido de
la mano con la construcción de los problemas de la
Rivka Oxman a même affirmé que « Peut-
être que la plus importante des conditions
crées par l’émergence des nouvelles
technologies du dessin numérique pendant
la dernière décennie a été l’émergence
simultanée des nouveaux cadres théoriques
et philosophiques qui constituent les bases
intellectuelles du dessin numérique »
(Oxman, 2006, p. 262)
L’idée avancée par Oxman est
particulièrement pertinente pour n’importe
quelle étude portant sur la rencontre entre
l’architecture et l’informatique. En situant la
pensée cybernétique comme un des aspects
essentiels pour la construction des
problèmes de l’architecture numérique, la
thèse prétend contribuer à la compréhension
des facteurs qui ont structuré la pensée
architecturale dans ce contexte. Celle-ci est
sans doute une condition nécessaire pour
analyser de manière critique les productions
dans ce domaine. Naturellement cela
demande l’adoption d’un modèle d’analyse
qui rend compte no seulement des aspects
techniques de l’intégration de l’informatique
dans les processus de conception, mais aussi
des cadres théoriques autour desquels la
perspective numérique dans l’architecture a
été construite.
1.3 Architecture et informatique :
déterminisme ou médiation ?
En dépit de cette évidence, les postures
déterministes, comme le rappellent Kiel Moe
et Ryan E. Smith, sont un lieu commun tant
dans la pratique que dans l’étude de la
technologie en architecture. Ce type de
positionnement a conduit à des visions de la
technologie dans la profession comme un
sujet autonome et technocratique. En
conséquence on a eu tendance à considérer
les questions technologiques comme
facteurs isolés des réseaux complexes que
définissent tant les aspects techniques de la
profession, comme tous les autres facteurs
impliqués dans l’élaboration théorique et
matérielle de l’architecture (Moe et Smith,
2012, p. 2).
Les analyses déterministes ne sont pas
étrangères à l’étude de la relation entre
architecture et l’informatique. En effet, une
idée fréquemment évoquée est que les outils
numériques ont été les moteurs des
changements observés dans plusieurs
pratiques architectoniques contemporaines ;
1. Introducción
13
arquitectura en referencia a diversos modelos de
pensamiento influyentes en la cultura contemporánea.
Rivka Oxman incluso ha planteado que “[t]al vez la más
desafiante de las condiciones creadas por la emergencia
de las nuevas tecnologías de diseño digital en la última
década, ha sido la emergencia simultanea de nuevos
marcos teóricos y filosóficos que constituyen las bases
intelectuales del diseño digital.” (Oxman, 2006, p. 262)
El punto señalado por Oxman es particularmente
relevante para cualquier estudio que explore el encuentro
de la informática y la arquitectura. Al situar el
pensamiento cibernético como un factor central en la
construcción de los problemas de la arquitectura digital, la
disertación pretende contribuir a la comprensión de los
factores que han estructurado el pensamiento
arquitectónico en este contexto. Esta es sin duda una
condición necesaria para analizar críticamente las
producciones elaboradas en este campo. Naturalmente, lo
anterior exige la adopción de un modelo de análisis que dé
cuenta no solamente de los aspectos técnicos de la
integración de la informática en los procesos de diseño,
sino de los marcos conceptuales alrededor de los cuales se
ha elaborado la perspectiva computacional en la
arquitectura.
1.3 Arquitectura y computación: ¿determinismo
o mediación?
A pesar de esta evidencia, las posturas deterministas,
como lo recuerdan Kiel Moe y Ryan E. Smith, son un
lugar común tanto en la práctica como en el estudio de la
tecnología en la arquitectura. Este tipo de postura ha
conducido a visiones de la tecnología en la profesión como
même dans des travaux préoccupés par la
compréhension complexe entre les
élaborations de l’architecture digitale et un
contexte sociopolitique et intellectuel, on
retombe dans ce lieu commun.
Les discours déterministes méritent une
attention car les sous-entendus qu’ils
contiennent rappellent quelques unes des
postures dominantes dans l’étude des
rapports entre culture et technologie. Ce
discours amène une vision de la relation
outils-culture d’emploi qui rappelle la
maxime de Marshal Mcluhan « le médium
est le message », ou la théorie marxiste du
développement historique, selon laquelle les
transformations dans la société se
manifestent dans les moyens de production
(l’infrastructure) avant de se manifester
dans les manifestations culturelles ou
l’idéologie (la superstructure).
Dans le cas de l’architecture, le problème
posé par ces visions est qu’il conduit a des
simplifications tels que la tendance, déjà
mentionnée, à considérer l’emploi de la
technologie comme l’origine des
changements dans ses productions, ou bien
à considérer que ces changements ont été
motivés exclusivement par la quête d’une
certaine complexité géométrique que les
nouvelles technologies permettent
d’explorer. Même si la quête de nouveaux
imaginaires formels a été un aspect central
de plusieurs productions digitales de
l’architecture, il est important de
comprendre comment ces explorations se
sont articulées avec des réflexions sur le
contenu propre aux techniques et
technologies utilisées, et également dans
quelle mesure ces recherches se sont
nourries de différentes références à des
concepts élaborés dans des divers champs
de la connaissance.
Dans l’introduction de Une histoire de
l’informatique, le sociologue Philippe Breton
se demande précisément si la
compréhension de l’intégration dans la
société de l’informatique peut passer
uniquement par l’étude de ses aspects
techniques. La réponse de l’auteur est que
limiter la connaissance de l’informatique à
ses aspects purement techniques serait nier
ce qu’il y a de dynamique dans l’idée de
culture informatique (Breton, 1990). Cette
question transposée à l’étude de
l’architecture numérique amène à se
demander si ses productions peuvent être
pensées seulement à partir de la
compréhension des outils employés. A partir
du point de vue adopté la réponse
coïnciderait avec celle de Breton : réduire le
14
un sujeto autónomo y tecnocrático. En consecuencia, las
cuestiones tecnológicas han sido consideradas como
factores aislados de las complejas redes que definen tanto
los aspectos técnicos de la profesión, como todos los
demás factores involucrados en la elaboración teórica y
material de la arquitectura (Moe & Smith, 2012, p. 2).
Los análisis deterministas no han sido ajenos al estudio de
la relación entre la arquitectura y la informática. De hecho
una idea frecuentemente evocada es que las herramientas
digitales han sido el motor de los cambios observados en
muchas prácticas arquitectónicas contemporáneas.
Incluso en trabajos preocupados por entender de manera
compleja la relación entre las elaboraciones de la
arquitectura computacional y un contexto socio-político e
intelectual, por momentos se cae en este lugar común.
2
Los discursos deterministas merecen atención porque los
supuestos que se encuentran detrás de ellos recuerdan
algunas de las posturas dominantes en el estudio de las
relaciones entre cultura y tecnología.
3
Estos implican una
visión de la relación herramienta-cultura de uso que
recuerda la máxima de Marshal Mcluhan “el medio es el
mensaje”, o la teoría marxista del desarrollo histórico,
según la cual las transformaciones en la sociedad se
2
Por ejemplo, Altino Joao Rocha, autor de un interesante trabajo sobre la emergencia de la perspectiva computacional en
la profesión, sugiere en algún punto que el desarrollo de nuevos conceptos en los años noventa fue el resultado de
construir metáforas teóricas y computacionales que permitían el uso de las nuevas herramientas de diseño (Rocha, 2004,
p. 89).
3
Langdon Winner, por ejemplo, plantea en su influyente ensayo El reactor y la ballena que de manera general “la literatura
sobre la revolución informática se limita a describir la sorprendente magnitud de las innovaciones técnicas y sus efectos
sociales. Esto incluye no sólo a las publicaciones superficiales sino a prestigiosos journals de la comunidad científica.”
(Winner, 2003, p. 589) Winner incluso sugiere que el determinismo tecnológico deja de ser una simple teoría para
convertirse en un ideal: “El deseo de adoptar las condiciones generadas por el cambio tecnológico sin juzgarlas
previamente.” (Ibíd. p. 593) Jérôme Segal, en su extenso estudio sobre la noción de información en el siglo XX también
recuerda que una parte importante de la bibliografía sobre la “sociedad de la información” no va mas allá de promover un
discurso dominante que hace elogio del liberalismo y que, desde los escritos de Mcluhan hasta la Mediología de Debray, se
trata en la mayoría de los casos de exponer “los efectos engendrados por las técnicas… en la sociedad”. (Segal, 2003, p. 5)
problème de la relation de l’architecture et
l’informatique uniquement à la question des
techniques employées serait nier l’impact de
la culture informatique dans les élaborations
de l’architecture.
Pour comprendre l’impact de la culture
informatique dans l’architecture il est
fondamental de connaitre non seulement les
outils technologiques, mais aussi de
comprendre les implications de leur usage.
Mais cela devient possible seulement si l’on
adopte un modèle d’analyse qui dépasse les
simplifications des visions déterministes,
visions depuis lesquelles la perspective
numérique a été étudiée seulement en terme
des modes d’opération que l’informatique a
permis d’introduire dans la profession. Cette
position nie un aspect encore plus important
qui se trouve au centre de l’analyse
proposée, a savoir, comment ont été
interprétés depuis la pratique de
l’architecture les changements
épistémologiques, les idées et valeurs, que
l’informatique incarne.
Avec l’objectif de comprendre cela, l’analyse
part de la considération que les
constructions de l’architecture numérique
sont le résultat d’un processus de médiation
entre des artefacts et des idées. Ce regard
s’inspire des modèles d’analyse proposés par
des auteurs comme Donna Haraway,
Katherin Hayles et Bruno Latour, qui
présentent une vision des relations
complexes entre culture et technologie
comme deux aspects de productions
humaines qui se composent ensemble.
Haraway par exemple suggère la nécessité
d’un modèle d’analyse qui indique les
relations sociales entre les sciences, la
technologie, et le système de mythes et
1. Introducción
15
manifiestan en los medios de producción (infraestructura)
antes de manifestarse en las manifestaciones culturales o
en la ideología (superestructura).
En el caso de la arquitectura el problema que plantean
estas visiones es que conducen a simplificaciones, como la
ya mencionada tendencia a asignar al empleo de la
tecnología el origen del cambio en las elaboraciones de la
arquitectura, o que estas nuevas elaboraciones han
estado motivadas exclusivamente por la búsqueda de
cierta complejidad geométrica que las nuevas tecnologías
permiten explorar. Aunque sin duda la búsqueda de
nuevos imaginarios formales ha sido un aspecto central de
muchas producciones digitales de la arquitectura, es
importante comprender cómo estas exploraciones se han
articulado con reflexiones que se han nutrido de diversas
referencias a conceptos elaborados en diferentes campos
del conocimiento.
En la introducción de Une histoire de l’informatique, el
sociólogo Philippe Breton se pregunta precisamente si la
comprensión de la integración en la sociedad de la
informática puede pasar únicamente por el estudio de sus
aspectos técnicos (Breton, 1990). La respuesta del autor es
que reducir el conocimiento de la informática a sus
aspectos puramente técnicos sería negar lo que hay de
dinámico en la idea de “cultura informática”.
4
Trasladada
esta cuestión al estudio del campo de la arquitectura
computacional, cabe preguntarse si sus producciones
pueden pensarse solamente desde la comprensión de las
herramientas informáticas empleadas. Desde la
4
Por “cultura informática” Breton se refiere al conjunto de ideas, valores, desarrollos técnicos, conocimientos, etcétera,
sobre los cuales se definen las formas de pensar el mundo en la era de la información. De esto se desprende que no existe
una separación entre los sistemas técnicos (las tecnologías de la información en este caso) y lo cultural, sino que estos son
parte de un complejo ensamblaje que incluye múltiples factores que se construyen simultáneamente, y que incluyen los
aspectos tecnológicos.
significations qui structurent les imaginaires.
Depuis cette perspective elle considère que
«la limite est perméable entre outil et
mythe, instrument et concept, systèmes
historiques des relations sociales et
anatomies historiques des corps possible, qui
incluent les objets de connaissance »
(Haraway, 2003, p.524). Selon Haraway
cette restructuration du monde à travers les
rapports sociaux de la science et la
technologie ne constitue pas un
déterminisme technologique sinon qu’il
s’agit d’un système des relations structurées
médiatisées par la technologie. On
comprend alors que la technologie ne
détermine pas, sinon qu’elle rend possible
certaines formes d’organisation.
En relation avec cette vision complexe de la
construction du culturel et du technologique,
relèvent d’un intérêt les études qui
reconnaissent, comme le propose Branko
Kolarevic, que le domaine
de l’architecture
numérique, plus qu’un phénomène
déterminé par des aspects techniques est
une manifestation culturelle qui inclut, entre
autres, des aspects technologiques,
esthétiques, et idéologiques (Kolarevic,
2003). D’une manière similaire, Burke et
Tierney proposent que dans une société de
réseauux le rôle de l’architecte est motivé
par une préoccupation concernant le
développement des technologies, et la
manière dont celles-ci prennent forme parmi
les phénomènes socioculturels. Dans ce sens,
la production digitale de l’architecture, plus
que déterminée par la technologie est
considérée « équipée de manière croissante
pour traiter les complexités de l’espace en
réseau contemporain, développant ainsi des
nouveaux types de pratiques et en explorant
de nouveaux contextes et conditions
spatiales complexes dans des ambiances
digitales et réelles » (Burke et Tierney, 2007,
p.27).
Dans la même veine d’analyse, Antoine
Picon a signalé que la technologie est
difficilement l’unique explication des
changements dans la définition et le contenu
de l’architecture numérique ; spécialement
quand dans la production de l’architecture
existent tellement de choses qui dépendent
des facteurs culturels et économiques (Picon,
2010, p. 9).
16
perspectiva aquí abordada, la respuesta a esta pregunta
coincidiría con la de Breton: reducir el problema de la
integración de la arquitectura y la computación
únicamente a la cuestión de las técnicas utilizadas, sería
negar el impacto de la cultura informática en las
elaboraciones de la profesión.
Para comprender el impacto de la cultura informática en
la arquitectura es fundamental conocer no solamente las
herramientas tecnológicas, sino entender de manera
compleja las implicaciones de sus usos. Pero esto sólo es
posible si se adopta un modelo de análisis que supere las
simplificaciones de las visiones deterministas, que con
frecuencia se han limitado a estudiar la perspectiva
computacional exclusivamente en términos de los modos
de operación que la informática ha permitido introducir en
la profesión. Esta mirada deja de lado un aspecto, tanto o
más importante, que se encuentra en el centro del análisis
propuesto, a saber, cómo se han interpretado desde la
práctica de la arquitectura los cambios epistemológicos,
las ideas y valores, que la informática encarna.
Con el objetivo de comprender esto último, el análisis
propuesto parte de pensar las elaboraciones de la
arquitectura computacional como un proceso de
mediación entre artefactos e ideas. Este enfoque se
inspira en los modelos de análisis propuestos por autores
como Donna Haraway, Katherine Hayles y Bruno Latour,
quienes presentan una visión de lo tecnológico como un
factor en la compleja red de relaciones que participan en
la producción de la cultura. Así se entiende que no existe
una dicotomía entre cultura y tecnología, sino que lo
tecnológico es una producción cultural al tiempo que los
D’un autre coté Picon ajoute que si l’on
pense à la technologie comme explication
unique de ces changements propres à
l’architecture numérique, cette influence
doit être pensée de manière plus large
incluant non seulement les techniques
employées par les professionnelles, mais
aussi le contexte général d’une société
technologiquement médiatisée. Selon
l’auteur il est indispensable de comprendre
les changements dans la profession de
l’architecture dans un contexte historique
global qui comprend le développement de
l’informatique, les tentatives de repenser
l’architecture dans le cadre cybernétique et
l’importance de la perspective numérique
dans la naissance du postmodernisme
(Picon, 2010, p.9).
Dans un contexte comme celui proposé par
Picon, et depuis le point de vue des modèles
d’annalyse conçus par Latour, Haraway et
Hayles, la thèse propose un regard sur la
production de l’architecture numérique
comme des manifestations culturelles et
techniques. C'est-à-dire comme des
manifestations résultantes de la retro
alimentation entre la construction des
problèmes disciplinaires en référence à des
discours technoscientifiques, et
l’introduction d’une pragmatique
informationnelle dans les processus de
conception.
1.4 Culture informatique et pensée
cybernétique
Le sociologue de la science Philippe Breton
propose une piste intéressante pour penser
cette relation de retro alimentation. Breton
a argumenté que l’informatique, en dépis
d’avoir été pensée il y a plusieurs décennies
et d’être une discipline en constante
évolution, reste un domaine déterminé en
grande mesure par les principes établis à ses
origines. Par conséquent il est considéré que
la connaissance de ses origines et
antécédents permet de mieux comprendre
son état actuel. Cela implique comprendre
que les changements technologiques,
culturels, sociales, et idéologiques qui se
trouvent à la base de son développement est
une condition pour appréhender le système
de valeurs, croyances et idéaux que
l’informatique incarne actuellement (Breton,
1990).
Pour Breton la théorie cybernétique est le
modèle de pensée qui représente le mieux
ces changements.
1. Introducción
17
aspectos tecnológicos influyen en el desarrollo del mundo
social de la vida.
5
Haraway, por ejemplo, sugiere la necesidad de un modelo
de análisis que señale las relaciones sociales entre la
ciencia, la tecnología y los sistemas de mitos y significados
que estructuran los imaginarios. Desde esta perspectiva
se considera que “[e]l límite es permeable entre
herramienta y mito, instrumento y concepto, sistemas
históricos de relaciones sociales y anatomías históricas de
cuerpos posibles, incluyendo los objetos de
conocimiento.” (Haraway, 2003, p. 524) Para Haraway
esta restructuración del mundo a través de las relaciones
sociales de la ciencia y la tecnología no constituye un
determinismo tecnológico, sino que se trata de un sistema
de relaciones estructuradas mediadas por la tecnología. Se
entiende entonces que la tecnología no determina, sino
que hace posibles ciertas formas de organización.
En relación con esta visión resultan de interés los estudios
del campo de la arquitectura computacional que
reconocen, como lo plantea Branko Kolarevic, que el
campo del diseño computacional, más que un fenómeno
determinado por aspectos técnicos, es una manifestación
cultural que incluye, entre otras cosas, aspectos
tecnológicos, estéticos e ideológicos (Kolarevic, 2003). De
manera similar, Burke y Tierney proponen que en una
sociedad de redes
6
el rol del arquitecto está motivado por
una preocupación por el desarrollo de las nuevas
5
Esta lógica de retroalimentación implica que, desde el punto de vista adoptado, los sistemas técnicos son considerados
como artefactos sociales y políticos, mientras que las producciones culturales aparecen como construcciones que son un
reflejo, al menos en parte, de los sistemas técnicos involucrados en su producción, al igual que de las condiciones que se
encuentran en la base de la consolidación de tales sistemas.
6
Los autores se refieren al concepto desarrollado por Manuel Castells, quien define la sociedad de redes como “la
estructura social que es característica de lo que se ha llamado por años la sociedad de la información o sociedad post-
industrial” (Citado en Burke & Tierney, 2007, p.27)
La cybernétique est un modèle de pensée qui
trouve son origine notamment aux Etats-
Unis dans les années d’après guerre
(seconde guerre mondiale). Ce paradigme
scientifique s’est consolidé autour de la
prémisse que tous les phénomènes dans le
monde pouvaient être expliqués comme des
processus d’échanges et circulations
d’informations, comme des systèmes
communicationnels, retro alimentés,
homéostatiques, et autorégulés. Ces idées
résultent de l’échange qui a été établi entre
divers développements technologiques et
théoriques dans différents domaines (qui ont
également joué un rôle important dans
l’origine de l’informatique) qui incluent
notamment la théorie de l’information de
Claude Shannon, le modèle de
fonctionnement neuronal comme un
système de calcul d ‘informations de Warren
McCulloch, le travail de John von Neuman
sur les machines processeurs de codes
binaires, et l’articulation proposée par un de
ses principales théoriques, Norbert Wiener,
de toutes ces notions et développements
technologiques dans une théorie de
prétentions universelles (Hayles, 1999, p.7).
Considérée comme le modèle qui représente
plusieurs des développements qui
convergèrent dans l’origine des sciences de
l’informatique, la cybernétique apparait
comme le paradigme de pensée qui permet
de comprendre les idées, valeurs et
changements épistémologiques sur lesquels
la culture informatique s’est cimentée. En
effet, de nombreux auteurs qui ont étudié les
implications socioculturelles du
développement des technologies de
l’information ont attribué une grande
importance au rôle de la cybernétique
(Breton, 1995 ; Lafontaine, 2004 ; Hayles,
1999 ; Segal, 2003 ; Mattelar, 2001 ;
Lyotard, 2005). Par conséquent il est assez
commun de trouver des échos de la pensée
des scientifiques comme Wiener, Shannon,
McCulloch, Ashby, et von Neuman, entre
autres,
18
tecnologías y la manera en que éstas toman forma dentro
de los fenómenos sociales y culturales. En este sentido, la
producción digital de la arquitectura, antes que
determinada por la tecnología, se considera
“crecientemente equipada para tratar con las
complejidades del espacio en red contemporáneo,
desarrollando así nuevos tipos de práctica y explorando
nuevos niveles de contextos y condiciones espaciales
complejas dentro de ambientes computacionales y
reales.” (Burke & Tierney, 2007, p. 27)
Dentro de la misma línea de análisis, Antoine Picon ha
señalado que la tecnología es difícilmente la única
explicación de los cambios propios de las prácticas de
arquitectura digital; especialmente cuando en la
producción de la arquitectura tanto depende de factores
sociales, culturales y económicos (Picon, 2010, p. 9). Por
otra parte, añade Picon, si se piensa en la tecnología como
única explicación de los cambios en la definición de los
problemas disciplinares de la arquitectura, esa influencia
debe ser pensada en términos extensos que incluyan no
solamente las técnicas empleadas por los profesionales,
sino el contexto general de una sociedad
tecnológicamente mediada. Para el autor es indispensable
entender los cambios en la profesión de la arquitectura
dentro de un largo y complejo contexto histórico que
incluye el desarrollo de la informática, los intentos por
repensar la arquitectura dentro del marco cibernético y la
importancia de la perspectiva computacional en el
nacimiento del postmodernismo (Picon, 2010, p. 9).
En un contexto como el propuesto por Picon y desde la
perspectiva de los modelos de análisis desarrollados por
Latour, Haraway y Hayles, la disertación propone una
mirada a las producciones de la arquitectura computacional
como construcciones definidas por factores ideológicos y
dans diverses réflexions sur l’informatisation
de la société, l’origine du paradigme
informationnel, la révolution informatique,
ou l’émergence de la société des réseaux.
Si l’on prend compte le rôle fondamental de
la pensée cybernétique dans la consolidation
de la culture informatique, la compréhension
de la vision du monde qui se dégage de se
modèle de pensée devrait aider à penser un
domaine comme l’architecture numérique.
Crucialement la pensée cybernétique a
exercé une influence considérable dans
l’architecture depuis le milieu du siècle
dernier, particulièrement dans le
développement de la perspective digitale
dans la profession.
En relation avec cette dernière idée, il faut
rappeler l’influence des discours de
l’information dans l’origine d’une esthétique
basée sur des principes structuraux
technoscientifiques. D’après Rocha dans les
premières expériences d’architecture avec
l’informatique, on observe une claire
identification avec deux aspects qui se
dégageaient de l’attraction générée a ce
moment là par la pensée structuraliste, un
modèle qui garde un lien très proche avec la
cybernétique. Il s’agit, d’un coté, de l’intérêt
pour la linguistique et la sémiologie, et d’un
autre coté, du développement des modèles
mathématiques et quantitatifs comme outils
opératifs et théorique dans l’architecture
(Rocha, 2004, pp. 26-30). Sean Keller a
également signalé de quelle manière les
expérimentations développées à Cambridge
s’identifiaient également avec d’autres
domaines proches des discours de
l’information, comme l’analyse des systèmes
et la recherche d’opérations (Keller, 2006,
pp. 47-78).
Ces premières recherches sur l’emploi de
l’informatique dans la conception
architecturale ont marqué notablement
l’évolution dans ce domaine, un domaine qui
actuellement est encore définit en grand
mesure par les mêmes problématiques que
durant les premières expériences : la
définition des problèmes architecturaux et
urbains comme des systèmes, le
développement des processus de conception
basés sur des méthodes quantitatives et des
systèmes formels de représentation, et
également sur
des
techniques de projection
1. Introducción
19
técnológicos.
O sea, como manifestaciones resultantes de
la retroalimentación entre la construcción de los
problemas disciplinares en referencia a discursos tecno-
científicos y la introducción de una pragmática
informacional en los procesos de diseño.
1.4 Cultura informática y pensamiento
cibernético
El sociólogo de la ciencia Philippe Breton propone una
pista interesante para pensar esta relación de
retroalimentación. Breton ha planteado que la
informática, a pesar de haber sido desarrollada hace varias
décadas, y de ser una disciplina en constante evolución, es
un campo que sigue estando determinado en gran medida
por los principios establecidos en sus inicios. Por lo tanto
se asume que el conocimiento de sus orígenes y
antecedentes permite entender mejor su estado actual.
Esto implica que entender los cambios tecnológicos,
culturales, sociales e ideológicos que se encuentran en la
base de su desarrollo, es una condición para comprender
el sistema de valores, supuestos e ideales que la
informática encarna en la actualidad (Breton, 1990). Para
Breton la teoría cibernética es el modelo de pensamiento
que mejor representa estos cambios.
La cibernética es un modelo de pensamiento que surgió
prominentemente en Estados Unidos en los años
posteriores a la segunda guerra mundial.
7
Este paradigma
científico se consolidó alrededor de la premisa que todos
los fenómenos en el mundo podían explicarse como
procesos de intercambio y de circulación de información,
como sistemas comunicacionales, retroalimentados,
7
Para una descripción más elaborada de este modelo véase el resumen propuesto en la revisión de la literatura.
Ainsi, il est relevant de noter la fréquente
caractérisation des problèmes de conception
en référence à des concepts importés des
champs de recherche comme la théorie des
systèmes, la théorie de la complexité, la
biologie moléculaire,
la biologie du
développement, et la logique de la
connectivité entre autres. Un aperçu sur les
manifestations récentes dans les domaines
du dessin numérique permet d’identifier les
abondantes références à des concepts
comme information, communication,
homéostasie, retro-alimentation, auto-
organisation, autopoïèse, complexité, non-
linéarité, connectivité, réseau, émergence,
etc.
L’étude de l’architecture numérique – de ses
techniques, contenus, méthodes et
productions – implique nécessairement
comprendre comment ces concepts opèrent
dans les élaborations de l’architecture et
d’où ils viennent. Ainsi le problème central
de la thèse est de situer le rôle de la pensée
cybernétique parmi les constructions de
l’architecture numérique. Avec cet objectif il
est proposé une analyse des modèles
dominants dans ce domaine prenant en
compte leurs relations avec une série de
modèles de pensée héritées du paradigme
cybernétique. Cette analyse devrait aider à
comprendre de quelles manières
l’introduction d’une pragmatique
informatique dans l’architecture s’est
articulé avec le développement d’une
nouvelle ontologie de la conception, d’une
redéfinition des problèmes traditionnels de
la profession en fonction des valeurs et
idéaux sur lesquels s’est construite la culture
informatique.
1.5 La cybernétique comme paradigme :
Hypothèse
Ainsi, la thèse proposée se base sur la
prémisse que la perspective numérique en
architecture s’est développée main dans la
main avec une construction des problème de
conception en référence aux paradigme des
pensée promulgué par la théorie
cybernétique.
20
homeostáticos y auto-regulados. Estas ideas nacieron
como el resultado de la cercanía que se estableció entre
diferentes desarrollos tecnológicos y teóricos en
diferentes campos – que también han jugado un papel
crucial en el origen de la informática –que incluyeron
notablemente la teoría de la información de Claude
Shannon, el modelo del funcionamiento neuronal como
un sistema de procesamiento de información de Warren
McCulloch, el trabajo de John von Neuman sobre las
máquinas procesadoras de códigos binarios, y la
articulación propuesta por uno de sus principales
teóricos, Norbert Wiener, de todas estas nociones y
desarrollos tecnológicos en una teoría de pretensiones
universales (Hayles, 1999, p. 7).
Considerada como el modelo que plasmó en una teoría
(de aspiraciones universales) muchos de los desarrollos
que confluyeron en el origen de las ciencias de la
computación, la cibernética aparece como el paradigma
de pensamiento que permite comprender muchas de las
ideas y cambios epistemológicos sobre los cuales se ha
cimentado la cultura informática. De hecho, numerosos
autores que han estudiado las implicaciones socio-
culturales del desarrollo de las tecnologías de la
información han dado gran importancia al rol de la
cibernética en este sentido (Breton, 1995; Lafontaine,
2004; Hayles, 1999; Segal, 2003; Mattelart, 2001; Lyotard,
2005). Por consiguiente es bastante común encontrar ecos
del pensamiento de científicos como Wiener, Shannon,
McCulloch, von Neumann, entre otros, en diversas
reflexiones sobre la informatización de la sociedad, el
origen del paradigma informacional, la revolución
informática o la emergencia de la sociedad de redes.
8
8
De manera similar, en los estudios sobre los nuevos medios (campo que incluye a la arquitectura computacional entre sus
objetos de análisis) varios autores han encontrado resonancias del pensamiento cibernético en manifestaciones culturales
Cette hypothèse est développée à travers
une analyse basée sur l’exploration de deux
idées. La première suggère que les discours
sur la performance de l’architecture,
discours qui ont dominé l’agenda de
recherche des pratiques d’architecture
numérique depuis ses origines, constitue une
conception cybernétique des problèmes
disciplinaires. La deuxième suggère que
cette vision cybernétique se trouve au centre
des modèles les plus influents développés
dans le domaine de l’architecture numérique
; des modèles qui ont promu des visions des
problèmes de l’architecture en référence
directe à différents champs de recherche
étroitement lié aux discours de l’information.
Depuis ce point de vue, les constructions de
l’architecture numérique apparaissent
comme un travail de médiation qui inclut en
plus des problèmes traditionnels de la
profession, l’emploi des technologies de
l’information et la construction des
problèmes de conception autour d’une
ontologie, et une épistémologie
informationnelle, qui a profondément
pénétré la pensée et la culture occidentale
contemporaine.
Ce mode d’analyse part de la considération
que le domaine du dessin numérique doit
être pensé comme une manifestation à la
fois culturelle et technique, où les couches
technologiques affectent les couches
culturelles et vis et versa (Fig. 1). Ainsi la
thèse constitue une réflexion sur la manière
dont les narratives propres de la pensée
cybernétique ont jouées un rôle cruciale
dans les constrictions de l’architecture
numérique et, inversement, sur la manière
dont les méthodes numériques de projection
apparaissent non comme un aspect
déterminant dans les processus de
productions de l’architecture, mais comme
un moyen d’exploration depuis l’architecture
de la vision du monde qui a donné forme a la
culture informatique.
La saisie de cette dynamique est cruciale
tant pour la compréhension des imaginaires
sur lesquels se sont construits les
productions digitales de l’architecture,
comme pour comprendre les possibles
raisons de la tendance dans ce domaine à la
réification de ces imaginaires.
1. Introducción
21
Teniendo en cuenta el rol fundamental del pensamiento
cibernético en la consolidación de la cultura informática, la
comprensión de la visión del mundo que se desprende de
este modelo de pensamiento debería ayudar a entender
un campo como la arquitectura computacional.
Crucialmente, el pensamiento cibernético ha ejercido una
considerable influencia en la arquitectura desde mediados
del siglo pasado, particularmente en el desarrollo de la
perspectiva computacional en la profesión.
En relación con lo anterior cabe recordar el influjo de los
discursos de la información en el origen de una estética
basada en principios estructurales tecno-científicos. Según
Rocha, en las primeras experiencias de arquitectura y
computación se observa una clara identificación con dos
aspectos que se desprendían de la atracción que
despertaba entonces el pensamiento estructuralista, un
modelo que mantiene un estrecho vínculo con la
cibernética.
9
Se trata, por una parte, del interés en la
lingüística y la semiología, y por la otra, del desarrollo de
modelos matemáticos y cuantitativos como herramienta
operativa y teórica en la arquitectura (Rocha, 2004, pp.
26-30). Sean Keller también ha señalado en qué manera
las exploraciones desarrolladas en Cambridge se
identificaron asimismo con otros campos cercanos a los
discursos de la información, como el análisis de sistemas y
contemporáneas tan diversas como la literatura experimental de William Burroughs y del grupo Oulipo, el origen del video
arte, la aparición del concepto de cyborg como modelo en los estudios culturales, la emergencia de Internet y, desde luego,
en algunas de las primeras experiencias de arquitectura computacional. Entre estas se pueden mencionar las
investigaciones de LUBFS, del Architecture Machine Group de Nicholas Negroponte y del Design Researh Center de Chuck
Eastman, que operó bajo la influencia del pensamiento de Herbert Simon. Respecto al desarrollo de las primeras
herramientas de diseño digital en MIT, Daniel Cardoso Llach muestra en su disertación doctoral de qué manera los
ingenieros del Computer Aided Design Project imaginaron el diseño inspirándose en los dictados de la cibernética
(Cardoso,
2012, p. 48).
9
Véase al respecto: Dosse, F., 1995. Histoire du structuralisme y Lafontaine, C., 2004. L’empire cybernétique. Des machines
à penser à la pensée machine.
1.6 Paradigme situé : Objectif
En accord avec l’hypothèse proposée le
principal objectif de la thèse est de situer les
idées centrales cybernétiques dans les
pratiques contemporaines de l’architecture
numérique, montrant de cette façon
comment les plus influentes productions
dans ce domaine se sont construites autour
du paradigme de pensée théorisée par les
cybernéticiens.
Avec cet objectif on propose un regard sur
trois modèles développés dans ce domaine
qui ont exploré diverses visions des objets
architecturaux, et qui gardent un lien très
proche avec le paradigme cybernétique. Ces
modèles ce sont basés sur des
caractérisations de l’architecture comme des
systèmes, des mécanismes génétiques, et
comme des phénomènes complexes, auto
organisés et émergents qui, en référence aux
idées exposées dans la théorie des systèmes,
les visions informationnelles de la biologie,
et la science de la complexité, ont défini des
constructions des objets architecturaux et
des processifs de conception qui défient les
représentations et techniques traditionnelles
de l’architecture.
A partir d’une analyse de l’origine
cybernétique des discours de la performance
de l’architecture on prétend démontrer,
dans un premier temps, comment ces
modèles ont été élaborés à travers la
définition des problèmes des l’architecture
en relation avec une série de concepts qui
viennent des discours de l’information et,
dans un second temps, comment ces
constructions s’articulent avec les
méthodologies de conception explorées.
Dans chacun des cas analysés il s’agit de
répondre à deux questions concrètes.
Premièrement, quelles sont les idées
22
la investigación de operaciones (Keller, 2006, pp. 47-48).
Estas primeras investigaciones sobre el empleo de la
informática en el diseño han marcado notablemente la
evolución de la arquitectura computacional, un campo
que actualmente sigue definiéndose en gran medida por
las mismas cuestiones planteadas en las primeras
experiencias: la definición de los problemas
arquitectónicos y urbanos como sistemas, el desarrollo de
procesos de diseño basados en métodos cuantitativos y en
sistemas formales de representación, al igual que la
elaboración de técnicas de proyectación que integran
conceptos heredados de diversos modelos científicos
cercanos a la cibernética.
Respecto a esto último, es relevante la frecuente
caracterización de los problemas de diseño en referencia a
conceptos importados de campos como la teoría de
sistemas, la teoría de la complejidad, la biología molecular,
la biología del desarrollo y la lógica de la conectividad,
entre otros. Una mirada rápida a la variedad de
manifestaciones recientes en el campo del diseño
computacional permite identificar abundantes referencias
a nociones como información, comunicación,
homeostasis, retroalimentación, auto-organización,
autopoiesis, complejidad, no linealidad, conectividad,
redes, emergencia, etcétera.
El estudio del campo del diseño computacional – de sus
técnicas, contenidos, métodos y producciones – implica
necesariamente entender cómo operan estos conceptos
en las elaboraciones de la arquitectura y de donde vienen.
Por lo tanto, el problema central planteado por la
disertación es situar el rol del pensamiento cibernético en
las elaboraciones de la arquitectura computacional. Con
este fin se propone un análisis de los modelos dominantes
promues pas les modèles de référence et
quel es sa relation avec la pensée
cybernétique. Deuxièmement, quelles visions
de l’architecture se sont construites autour
de ces idées et comment elles s’articulent
avec les méthodes des conceptions
élaborées.
A travers cette analyse on entende montrer
que le rôle de l’informatique ne peut pas
être considéré ni comme un aspect neutre ni
comme un aspect déterminant dans les
productions de l’architecture numériques.
Contrairement à ces positions, la thèse
aspire à situer l’architecture numérique
comme un domaine qui s’inscrit dans le
complexe réseau des échanges
sociotechniques qui définissent l’épistème
informationnel.
Quelques années en arrière, William Mitchell
et Malcom McCullough alertaient sur
l’importance d’analyser de manière critique
les conditions qui structurent le travail
intellectuel des architectes dans le contexte
d’une croissante informatisation de la
profession (Mitchell et McCullough, 1995,
p.8). En accord avec ce besoin identifié par
Mitchell et McCullough, cette thèse aspire à
être un apport pour la compréhension de ce
contexte. En situant l’influence des discours
de l’information comme une des conditions
qui ont structuré le travail intellectuel des
architectes, la thèse entend aider à la
construction d’un regard critique de la
production digitale de l’architecture.
Dans ce sens, après l’analyse, sera présentée
une réflexion qui explore comment la
construction cybernétique des problèmes
architecturaux peut être fructifiant pour la
production de l’espace contemporain, et
démontre par ailleurs que l’élaboration des
problèmes en architecture basés sur des
technologies et/ou des métaphores
technoscientifiques résultent
problématiques quand ces recours
s’autonomisent des autres facteurs qui
définissent les problèmes disciplinaires.
1.7 Concepts nomades : Méthodologie
Le travail réalisé est le résultat de l’analyse
comparative d’un corpus bibliographique
constitué par des textes sélectionnés qui
comprennent des travaux sur les
développement et l’évolution de la
perspective numérique en architecture,
monographies et articles d’architectes
impliqués dans ce domaine et une série de
textes de divulgation sur le champs de
connaissance qui ont informé les pratiques
1. Introducción
23
en este campo, teniendo en cuenta su relación con una
serie de modelos de pensamiento herederos del
paradigma cibernético. Este análisis debería ayudar a
comprender de qué manera la introducción de una
pragmática computacional en la arquitectura se ha
articulado con el desarrollo de una nueva ontología del
diseño, de una redefinición de los problemas tradicionales
de la profesión en función de los valores, supuestos e
ideales sobre los que se ha construido la cultura
informática.
1.5 La cibernética como paradigma: Hipótesis
Teniendo en cuenta lo anterior, la disertación propuesta
se basa en la premisa que la perspectiva computacional en
la profesión se ha desarrollado de la mano con la
construcción de los problemas de la arquitectura en
referencia al paradigma de pensamiento promovido por la
teoría cibernética.
Esta hipótesis se desarrolla a través de un análisis basado
en la exploración de dos ideas. La primera sugiere que los
discursos sobre el performance de la arquitectura, que han
dominado en gran medida la agenda de investigación de
las prácticas de arquitectura computacional desde sus
inicios, constituyen una concepción cibernética de los
problemas disciplinares. La segunda plantea que esta
visión cibernética se encuentra en el centro de los más
influyentes modelos elaborados en el campo del diseño
computacional, modelos que han promovido visiones de
los problemas de la arquitectura en referencia directa a
diferentes campos de investigación estrechamente
vinculados con los discursos de la información.
Desde esta perspectiva, las elaboraciones de la
analysées : la cybernétique, la théorie des
systèmes, l’émergence des modèles
informationnelles dans la biologie et la
théorie de la complexité. L’analyse s’est
également nourri de l’étude d’une ample
bibliographie composée de textes sur les
théories et critiques de l’architecture
contemporaine, l’histoire de l’informatique,
la sociologie de la science et les études sur
les nouveaux médias.
L’étude se base sur l’analyse de comment les
postulats centrales de la théorie
cybernétique ont transité vers d’autres
champs de la connaissance qui ont informé
les modèles numériques de conception ici
étudiés. A partir de ce travail, on a étudié
comment les constructions digitales de
l’architecture se sont développées en
référence à des concepts hérités des
domaines mentionnés ci-dessus.
Même si cette approche ne comprend pas la
totalité des explorations de l’architecture
autour des métaphores d’origine
cybernétique, les caractérisations
systémiques, génétiques, et/ou complexes
des problèmes de conception constituent les
axes dominants sur lesquels se sont
développés une grande partie des pratiques
digitales de l’architecture. Pour cette raison
ces explorations méritent une attention
spéciale ; de plus elles sont particulièrement
représentatives de la dynamique de transfert
des concepts cybernétiques invoqués au
centre de la problématique de cette thèse.
Pour illustrer ce processus de transfert,
chaque chapitre a inclus une série de
références à des projets et textes
d’architectes (ou des théories de
l’architecture) qui documentent la
construction des problèmes disciplinaires par
rapport à des notions cybernétiques.
L’inclusion de ces exemples ne prétend
aucunement être un échantillon
représentatif de la variété des pratiques qui
peuvent être associées à chacun des sujets
abordés. Cependant ces exemples
constituent des cas paradigmatiques sui
résument assez bien le panorama global de
la production digitale de l’architecture ; par
conséquent le type d’analyse proposée peut
être généralisé a différente expressions qui
peuvent être étudiées depuis la même
perspective.
24
arquitectura computacional aparecen como un trabajo de
mediación que incluye, además de los problemas
tradicionales de la arquitectura, el empleo de las
tecnologías de la información y la construcción de los
problemas de diseño en torno a una ontología y una
epistemología informacional, que ha penetrado
profundamente el pensamiento y la cultura occidental
contemporánea.
Este modo de análisis parte de la consideración que el
campo del diseño computacional debe pensarse como una
manifestación a la vez cultural y técnica, donde las capas
tecnológicas afectan a las capas culturales y viceversa
(Fig.1). Así, la disertación consiste en una indagación sobre
cómo las narrativas propias del pensamiento cibernético
han jugado un papel crucial en las elaboraciones de la
arquitectura computacional; e inversamente, sobre cómo
los métodos computacionales de proyectación aparecen, no
como un factor determinante en los procesos de
producción de la arquitectura, sino como el medio de
exploración, desde la profesión, de la visión del mundo que
ha dado forma a la cultura informática.
La comprensión de esta dinámica es crucial tanto para
entender los imaginarios sobre los que se han construido
las producciones digitales de la arquitectura, como para
entender las posibles razones de la tendencia a cosificar
estos imaginarios en muchas prácticas contemporáneas de
arquitectura digital.
Le choix des exemples s’est opéré à partir de
trois critères. Premièrement, on a
sélectionné les travaux d’architectes qui ont
présenté des visions des problèmes de
conception en référence aux thèmes
cybernétiques, et en particulier aux discours
scientifiques de référence traités dans
chaque chapitre. Pour cette raison, dans un
second temps, on a privilégié l’analyse du
travail des architectes qui ont présenté leur
conception de l’architecture à travers des
monographies et/ou des articles publiés par
les principaux éditoriaux et revues qui ont
promu la diffusion de l’architecture digitale.
L’origine Britannique et Nord américain de la
plupart de ces publications expliquent que
les exemples cités proviennent presque
exclusivement d’un contexte Européen et
Nord Américain, qui a été également
l’épicentre de développement et évolution
de la perspective numérique en architecture.
Le troisième critère de sélection s’est basé
sur la visibilité des architectes et/ou projets
cités. Dans la mesure du possible les sujets
traités ont été illustrés à travers des
références à des productions (théoriques ou
pratiques) des professionnels qui ont une
certaine reconnaissance dans le paysage
architectonique international et dont ses
apports au développement du domaine sont
suffisamment reconnus.
1.8 Structure de la thèse
La thèse est divisé en trois parties : la
première (chapitre 2) constitue une révision
des principaux concepts sur lesquels s’est
construit la thèse ; la deuxième (chapitre 3,
4, 5, 6) correspond a l’analyse de l’influence
de la pensée cybernétique dans le domaine
de l’architecture numérique ; la troisième
(chapitre 7, 8, 9) comprend une réflexion sur
la relevance de l’étude pour la construction
d’un regard critique du domaine de
l’architecture digitale, quelques conclusions
générales par rapport aux hypothèses
avancées, et une annexe où un projet
pédagogique qui explore l’intégration des
outils digitales de conceptions et les
méthodes élaborées par le laboratoire
Cresson est présenté.
Dans le chapitre 2 sont abordés les deux
questions essentielles qui se trouvent au
centre de la réflexion : la relation complexe
entre le culturel et le technologique et le rôle
fondamental de la théorie cybernétique pour
le développement du paradigme
informationnel.
1. Introducción
25
Figura 1. El análisis planteado parte de estudiar las elaboraciones de la
arquitectura computacional como un campo definido por la
retroalimentación entre referencias cruzadas a los discursos de la
información, los métodos computacionales introducidos en el diseño y la
consecuente redefinición de los problemas disciplinares de la
arquitectura.
1.6 Paradigma situado: Objetivo
De acuerdo con la hipótesis planteada, el principal objetivo
de la disertación es situar la influencia de las ideas centrales
de la teoría cibernética en las prácticas contemporáneas de
arquitectura computacional, mostrando así en qué sentido
algunas de las elaboraciones más influyentes en este
campo se han construido alrededor del paradigma de
pensamiento teorizado por los cibernéticos.
Con este objetivo se plantea una mirada a tres influyentes
aproximaciones al diseño exploradas en el campo de la
arquitectura computacional, que han explorado diferentes
visiones de los objetos arquitectónicos que mantienen un
estrecho vínculo con el paradigma cibernético. Estos
modelos se han basado en caracterizaciones de la
arquitectura como sistemas, como mecanismos genéticos y
como fenómenos complejos, auto-organizados y
emergentes, que en referencia a las ideas expuestas en la
teoría de sistemas, las visiones informacionales de la
biología y la ciencia de la complejidad, han definido
En ce qui concerne la relation entre culture
et technologie, un regard est proposé sur
deux modèles dominants qui analysent cette
relation : le déterminisme technologique et
le culturalisme. Cette analyse permet
d’identifier les inconvénients des deux
modèles et présente la nécessité d’adopter
un modèle qui rend compte des échanges
complexes entre le pôle de la science et de la
technologie et le pôle de la culture. Cette
vision complexe est au centre des modèles
développés par des auteurs tels que Bruno
Latour, Katherine Hayles, Donna Haraway,
qui ont avancé une vision du technologique
et du culturel comme des aspects des
productions humaines qui se composent
ensemble. La lecture de ce modèle permet
de les mettre en relation avec des concepts
développés par des théoriciens des nouveaux
médias, comme Janeth H.Murray et Lev
Manovich, dont les analyses apportent des
idées intéressantes pour penser les
productions de l’architecture numériques
comme des manifestations culturelles et
techniques.
En ce qui concerne la théorie cybernétique,
une synthèse des idées centrales qui ont
donné forme à ce modèle de pensée est
présentée, suivi par un panorama global sur
la manière dont les idées cybernétiques se
sont répandues vers d’autres domaines de la
connaissance, au point de devenir un des
paradigmes scientifiques les plus influents
depuis la moitié du XXe siècle. Une des
questions centrales pour le développement
de la thèse est basée sur la relation entre la
cybernétique et les champs de la
connaissance autour desquels se sont
construits les modèles analysés dans les
chapitres 4, 5, et 6. L’analyse de cette
relation sera incluse dans la réflexion
avancée dans chacun de ces chapitres.
26
elaboraciones de los objetos arquitectónicos y de los
procesos de diseño que desafían las representaciones y
técnicas tradicionales de la arquitectura.
Partiendo de un análisis del origen cibernético de los
discursos del performance en la arquitectura, se pretende
mostrar, en primer lugar, cómo estos modelos se han
elaborado mediante la definición de los problemas de la
profesión en relación directa a una serie de conceptos que
emanan de los discursos de la información, y, en segunda
instancia, cómo estas elaboraciones se articulan con las
metodologías de diseño concebidas.
En cada uno de los casos analizados se trata de responder
a dos cuestiones concretas. Primero, cuáles son las ideas
centrales promovidas por los modelos de referencia y cuál
es su relación con el pensamiento cibernético. Segundo,
qué visiones de la arquitectura se han construido
alrededor de éstas ideas y cómo se articulan estas visiones
con las metodologías de diseño desarrolladas.
Mediante este análisis se pretende mostrar que el rol de la
informática no puede considerarse ni como un factor
neutral, ni como el aspecto determinante en las
producciones de la arquitectura computacional. En
oposición a estas visiones del impacto del hecho
tecnológico en las producciones culturales, la disertación
pretende situar la arquitectura computacional como un
campo que se inscribe dentro de la compleja red de
intercambios socio-técnicos que definen el espiteme
informacional.
Hace algunos años William Mitchell y Malcom McCullough
advertían sobre la importancia de analizar críticamente las
condiciones que estructuran el trabajo intelectual de los
arquitectos en el contexto de la creciente informatización
Dans le chapitre 3 il est proposé une lecture
sur la manière dont le discours de la
performance de l’architecture a constitué
une réélaboration des problèmes de
l’architecture par rapport aux postulats de la
cybernétique. Ceci est fondamental pour
comprendre comment la construction
cybernétique des problèmes disciplinaires se
trouve à la base de la perspective numérique
en architecture depuis ses origines. Cette
analyse permet d’explorer dans quelle
mesure cette même vision est sous jacente
aux constructions systémiques, génétiques
et complexes de l’architecture numérique
étudiés dans les chapitres 4, 5 et 6.
Dans le chapitre 4 est présenté une analyse
sur la manière dont une des idées
dominantes des explorations de
l’architecture numérique a été la conception
des objets architecturaux comme des
systèmes. Partant d’une explication des
concepts centraux de la théorie des
systèmes, et de sa relation avec la
cybernétique, dans ce chapitre il est
démontré de quelle façon, depuis une
perspective systémique, les bâtiments et les
processus de conception ont été conçus
comme des totalités organisées, comme des
ensembles d’éléments intégrés avec le
contexte. Cette analyse intègre également
un regard sur la manière dont ce type
d’élaboration des problèmes architecturaux
a favorisé la construction des analogies
organiques dans la profession, aspect
central pour le développement des modèles
explorés dans les chapitres 5 et 6.
Ainsi, dans le chapitre 5, à partir de l’analyse
de l’influence de la pensée informationnelle
dans la biologie, est proposé un regard sur la
manière dont le développement des
méthodes génétiques dans la conception
s’est inspiré de la vision cybernétique des
mécanismes génétiques dans les
organismes. Depuis cette perspective il est
étudié comment ces modèles ont redéfinis
les problèmes architecturaux en référence à
des concepts de champs comme la biologie
moléculaires et la biologie évolutive, et à
une série de techniques développées dans le
champ de la bioinformatique, à partir
desquels les processus de conception ont été
conçus comme des phénomènes génératifs
et émergents.
Poursuivant cette réflexion, dans le chapitre
6 est étudié la façon dont les
caractérisations génétiques de l’architecture
ont ouvert une brèche vers une
considération de l’architecture
1. Introducción
27
de la profesión (Mitchell & McCullough, 1995, p. 8). De
acuerdo con la necesidad señalada por Mitchell y
McCullough, esta disertación tiene como objetivo ser un
aporte para la comprensión de este contexto. Al situar el
influjo de los discursos de la información como una de las
condiciones que han estructurado el trabajo intelectual de
los arquitectos digitales, la disertación aspira a contribuir
a la construcción de una mirada crítica de la producción
computacional de la arquitectura.
En este sentido al final del análisis se presenta una
reflexión que señala en qué sentido la construcción
cibernética de los problemas de la arquitectura puede ser
fructífera para la producción del espacio contemporáneo,
al tiempo que se argumenta que la elaboración de los
problemas de la arquitectura en base a tecnologías y/o
metáforas tecno-científicas resulta problemática cuando
dichos recursos se autonomizan de los múltiples factores
que definen los problemas disciplinares.
1.7 Conceptos nómadas: Metodología
La disertación es el resultado del análisis comparativo de
un corpus bibliográfico, constituido por textos
seleccionados que incluyen trabajos sobre el desarrollo y
la evolución de la perspectiva computacional en la
arquitectura, monografías y artículos de arquitectos
implicados en el campo y una serie de libros y artículos de
divulgación sobre los campos del conocimiento que han
informado las prácticas de arquitectura computacional
analizadas: la cibernética, la teoría de sistemas, la
emergencia de los modelos informacionales en la biología
y la teoría de la complejidad. El análisis también se ha
nutrido del estudio de una amplia bibliografía que incluye
comme un phénomène complexe, c'est-à-
dire, comme des systèmes émergents et
auto organisés. Comme dans le chapitre
précédent, l’analyse part de l’examen des
principaux postulats de la théorie de la
complexité et de sa relation avec la
cybernétique, pour ensuite analyser sa
relation avec les modèles émergents de
conception.
Dans le chapitre 7 est présentée une
réflexion qui indique de quelle façon le sujet
de recherche proposé constitue un outil utile
pour la construction d’une vision critique de
la production numérique de l’architecture.
Partant d’une discussion sur le caractère
utopique, prototypique et écologique propre
aux constructions cybernétiques de
l’architecture, quelques aspects significatifs
de ces changements de paradigmes sont mis
en valeur ainsi que certains aspects
controversés qui méritent cependant une
attention particulière.
Dans le chapitre 8 sont présentées les
conclusions générales, quelques notes sur les
apports et les limites de la thèse, mais
également sur les perspectives de recherche
qui se dégagent du travail réalisé.
Dans le chapitre 9 est présenté un article
annexe qui décrit un projet pédagogique en
cours qui a été développé dans le cadre de
mes échanges avec l’ENSAG et le laboratoire
Cresson. Le projet s’est focalisé sur le
développement d’une méthodologie de
projection orienté vers l’exploration du
potentiel des outils du dessin paramétrique
comme support pour l’agenda de recherche
promut par le laboratoire Cresson.
1.9 Implication dans le domaine
Cette recherche fait partie d’un travail de
réflexion sur le rôle de l’informatique dans la
profession qui commença il y a quelques
années avec la rédaction d’une mémoire de
DEA qui questionnait le rapport entre
l’emploi des nouvelles technologies de dessin
et représentation, et la construction de
nouveaux imaginaires dans l’architecture
contemporaine.
Depuis mon travail de recherche s’est centré
tant ans la compréhension du rôle assigné
aux technologies de l’information dans la
profession comme dans la connaissance
technique des outils numériques de
conception.
28
principalmente textos sobre la teoría y critica de la
arquitectura contemporánea, al igual que una serie de
trabajos relevantes sobre la historia de la informática, la
sociología de la ciencia y los estudios de los nuevos
medios.
El estudio propuesto se basa en el análisis de cómo los
postulados centrales de la teoría cibernética han
transitado hacia diferentes campos del conocimiento que
han informado los modelos computacionales de diseño
aquí estudiados. En base a este trabajo se ha llevado a
cabo un examen de cómo las elaboraciones digitales de la
arquitectura se han construido en referencia a conceptos
heredados de la teoría de sistemas, los modelos
informacionales en la biología y la ciencia de la
complejidad.
Aunque el estudio no abarca la totalidad de las
exploraciones de la arquitectura en torno a metáforas
tecno-científicas de origen cibernético, las
caracterizaciones sistémicas, genéticas y/o complejas de
los problemas de diseño constituyen los ejes dominantes
sobre los cuales se han desarrollado una gran parte de las
prácticas digitales de la arquitectura. Por este motivo se
ha considerado que estas exploraciones merecen especial
atención, además de ser éstas particularmente
representativas de la dinámica de transferencia de
conceptos cibernéticos que se encentra en el centro de la
problemática planteada por la tesis.
Para ilustrar este proceso de transferencia, en cada
capítulo se incluyen una serie de referencias a proyectos y
textos de arquitectos (o teóricos de la arquitectura) que
ejemplifican la construcción de los problemas disciplinares
en referencia a nociones de origen cibernético. La
inclusión de estos ejemplos no pretende de ningún modo
Par conséquent, en plus de l’exploration
théorique ici présentée (dont la
problématique a été présentée dans deux
articles publiés dans la Revue d’Architecture
de l’Université de Los Andes et dans les Actes
du colloque international « Materiality in its
Contemporary Forms : Architectural
Perception Fabrication and Conception ») j’ai
dédié une partie de mon travail à la
recherche de l’application des outils
numériques dans la conception.
Ainsi dans le cadre de mes activités de
recherche j’ai également participé, en tant
qu’étudiant, au master « Advanced Design
and Digital Architecture » à l’Ecole
Supérieure de Design et Ingénierie de
Barcelone, et en tant qu’enseignant
assistant de dessin paramétrique et projet
dans le master « Architecture, Ambiances, et
Culture Numérique » à l’école nationale
supérieure d’architecture de Grenoble (c’est
dans ce contexte que j’ai développé le projet
pédagogique présenté, comme annexe de la
recherche, dans le chapitre 9).
1. Introducción
29
ser un muestreo representativo de la variedad de prácticas de diseño que pueden asociarse con cada
uno de los temas abordados. Sin embargo, estos ejemplos sí constituyen casos paradigmáticos que
resumen bastante bien el panorama global de la producción digital de la arquitectura; así, el tipo
análisis planteado puede generalizarse a diferentes expresiones que pueden estudiarse desde la
misma perspectiva.
La elección de los ejemplos que ilustran los temas planteados se hizo en base a tres criterios. Primero
que todo, se seleccionó el trabajo de arquitectos que han presentado visiones de los problemas de
diseño en clara referencia a los idiomas cibernéticos y en particular a los discursos científicos de
referencia tratados en cada capítulo. Por este motivo, aquí aparece el segundo criterio de selección,
se privilegió el análisis del trabajo de arquitectos que han plasmado su concepción de la arquitectura
mediante monografías y/o artículos publicados por algunas de las principales editoriales
10
y
revistas
11
que han promovido la difusión de la arquitectura digital. El origen británico y
estadounidense de la mayoría de estas publicaciones explica que los ejemplos citados provengan casi
exclusivamente de este un contexto europeo y norteamericano (contexto que ha sido asimismo el
epicentro del desarrollo y evolución de la perspectiva computacional en la arquitectura). El tercer
criterio de selección fue la visibilidad de los arquitectos y/o proyectos citados. En la medida de lo
posible se ha tratado de ilustrar los temas tratados mediante la referencia a las producciones
(teóricas y/o prácticas) de profesionales que gozan de cierto reconocimiento en el paisaje
arquitectónico contemporáneo internacional y cuyos aportes al desarrollo del campo de la
arquitectura digital son suficientemente conocidos.
1.8 Estructura de la disertación
La disertación está dividida en tres partes: la primera parte (Capítulo 2) constituye una revisión de los
principales conceptos alrededor de los cuales se ha construido el argumento; la segunda parte
(Capítulos 3, 4, 5 y 6) corresponde al análisis del influjo del pensamiento cibernético en el campo de
la arquitectura computacional; la tercera parte (Capítulos 7, 8 y 9) comprende una reflexión sobre la
relevancia del estudio para la construcción de una mirada crítica del campo de la arquitectura
computacional, algunas conclusiones generales respecto a las tesis centrales exploradas, y un anexo
10
Routledge, John Wiley & Sons, Spoon Press, Princeton Architectural Press.
11
Architectural Design, Environment and Planning B, Design Studies, The Journal of Architecture and Computation,
International Journal of Architectural Computation.
30
donde se presenta un proyecto pedagógico (en curso) que explora la integración de las herramientas
computacionales de diseño y los métodos elaborados en el laboratorio Cresson.
En el Capitulo 2 se abordan las dos cuestiones esenciales que se encuentran en el centro la reflexión
planteada: el rol de lo tecnológico en la cultura y el papel fundamental de la teoría cibernética en el
desarrollo del paradigma informacional.
En lo concerniente a la relación entre cultura y tecnología, se da una mirada a dos de los modelos
dominantes desde los cuales se ha analizado esta relación: el determinismo tecnológico y el
culturalismo. Este análisis permite identificar los inconvenientes de los dos modelos y señala la
necesidad de adoptar un modelo que dé cuenta de los intercambios complejos entre el polo de la
ciencia y la tecnología y el polo de la cultura. Esta visión compleja es provista por los modelos
desarrollados por autores como Bruno Latour, Katherine Hayles y Donna Haraway, quienes
promueven una visión de lo tecnológico como un aspecto de las producciones culturales que es
indisociable de una compleja red de factores que se retroalimentan. La lectura de estos modelos
permite relacionarlos con algunos conceptos desarrollados por teóricos de los nuevos medios, como
Janeth H. Murray y Lev Manovich, cuyos análisis proveen ideas interesantes para pensar las
producciones de la arquitectura computacional como manifestaciones ideológicas y técnicas.
En cuanto a la teoría cibernética, se presenta una síntesis de las ideas centrales que dieron forma a
este modelo de pensamiento, y posteriormente se propone un panorama global de cómo sus ideas
se expandieron hacia otras áreas del conocimiento, al punto de convertirse en uno de los paradigmas
científicos más influyentes desde mediados del siglo XX. Una de las cuestiones centrales para el
desarrollo de la disertación es la relación entre la cibernética y los campos científicos alrededor de
los cuales se han construido los modelos analizados en los capítulos 4, 5 y 6. El análisis de esta
relación se incluirá dentro de la reflexión planteada en cada uno de estos capítulos.
En el Capitulo 3 se propone una lectura de cómo los discursos del performance de la arquitectura han
constituido una re-elaboración de los problemas de la arquitectura en base a los postulados de la
cibernética. Lo anterior es fundamental para entender cómo la construcción cibernética de los
problemas disciplinares se encuentra en la base de la perspectiva computacional en la arquitectura
desde sus orígenes. Este análisis permite explorar en qué medida esta misma visión subyace a las
construcciones sistémicas, genéticas y complejas de la arquitectura computacional, estudiadas en los
capítulos 4, 5 y 6.
En el Capitulo 4 se plantea un análisis de cómo una de las ideas dominantes en las exploraciones de
la arquitectura computacional ha sido la concepción de los objetos arquitectónicos como sistemas.
1. Introducción
31
Partiendo de una explicación de los temas centrales de la teoría de sistemas, y de su relación con la
cibernética, en este capítulo se muestra de qué modo, desde una perspectiva sistémica, los edificios
y los problemas de diseño han sido pensados como totalidades organizadas, como conjuntos de
elementos altamente integrados con el contexto. El análisis también comprende una mirada a cómo
este tipo de elaboración de los problemas arquitectónicos ha fomentado la construcción de analogías
orgánicas en la profesión, central para el desarrollo de los modelos explorados en los capítulos 5 y 6.
En referencia esto último, en el Capítulo 5, a partir del análisis del influjo del pensamiento
informacional en la biología, se propone una mirada a la manera en que el desarrollo de los métodos
genéticos en el diseño se ha informado de la visión cibernética de los mecanismos de la herencia en
los organismos. Desde esta perspectiva se estudia cómo estos modelos han redefinido los problemas
arquitectónicos en referencia a conceptos heredados de campos como la biología molecular y la
biología evolutiva, al igual que a una serie de técnicas desarrolladas en el campo de la biología
computacional, desde las cuales los procesos de diseño se han pensado como fenómenos
generativos y emergentes.
Siguiendo esta pista, en el Capítulo 6 se estudia cómo las caracterizaciones genéticas de la
arquitectura han dado paso a su consideración como fenómenos complejos, o sea, como sistemas
emergentes y auto-organizados. Al igual que en los capítulos precedentes, el análisis propuesto parte
del examen de los principales postulados de la teoría de la complejidad y su relación con la
cibernética, para posteriormente analizar su relación con los modelos emergentes de diseño.
En el Capítulo 7 se presenta una reflexión que indica de qué modo el tema de investigación
planteado constituye una herramienta útil para la construcción de una visión crítica de la producción
digital de la arquitectura. A partir de una discusión sobre el carácter utópico, prototípico y ecológico
propio de las construcciones cibernéticas de la arquitectura, se señalan algunos aspectos
significativos de este cambio de paradigma para la producción de la arquitectura, al igual que ciertos
aspectos controversiales que merecen ser discutidos.
En el Capítulo 8 se presentan las conclusiones generales, algunas notas sobre el alcance y
limitaciones del estudio, al igual que sobre las perspectivas de investigación que se desprenden del
trabajo realizado.
En el Capítulo 9 se presenta un artículo anexo, en el cual se exhibe un proyecto pedagógico, en
curso, que he venido desarrollando en el marco de mi vínculo con la ENSAG (École Nationale
Supérieure d’Architecture de Grenoble) y el laboratorio Cresson (Centre de Recherche sur l’Espace
Sonore Urbain). El proyecto presentado se enfoca en el desarrollo de una metodología de
32
proyectación orientada a explorar el potencial de las herramientas de diseño paramétrico como
soporte para la agenda investigación elaborada por el laboratorio Cresson .
1.9 Implicación en el campo
Esta disertación es parte de un trabajo de reflexión sobre el rol de la informática en la profesión que
inicié hace algunos años, a través de la escritura de una tesis de maestría que indagaba sobre la
relación entre el empleo de las nuevas tecnologías de diseño y representación y la construcción de
nuevos imaginarios en la arquitectura contemporánea.
Desde entonces mi trabajo de investigación se ha centrado tanto en la comprensión del papel
asignado a las tecnologías de la información en la profesión, como en el conocimiento técnico de las
herramientas digitales de diseño.
Por lo tanto, además de la exploración teórica aquí presentada – cuya problemática he expuesto en
dos artículos publicados en la Revista de Arquitectura de la Universidad de los Andes y en las actas
del congreso internacional “Materiality in its Contemporary forms: Architectural Perception,
Fabrication and Conception” – he dedicado parte de mi trabajo a la investigación de la aplicación de
las herramientas computacionales en el diseño.
Así, dentro del marco de mis actividades de investigación también he participado como estudiante
en el máster “Advanced Design and Digital Architecture” en la Escuela Superior de Diseño e
Ingeniería de Barcelona, y como profesor asistente de diseño paramétrico y proyectos en el
máster “Architecture, Ambiances et Cultures Numériques” en la École Nationale Supérieure
d’Architecture de Grenoble (contexto en el que he venido desarrollando el proyecto pedagógico
presentado, a manera de anexo, en el capítulo 9).
2. Revisión de la literatura
33
2. Revisión de la literatura
2.1 Resumen
Dos cuestiones fundamentales se encuentran en el centro de la reflexión planteada en las páginas
anteriores: el rol asignado a lo tecnológico en la cultura y el papel fundamental de la teoría
cibernética en el desarrollo del paradigma informacional. A continuación se propone una breve
explicación de algunos conceptos clave y se plantean ciertas reflexiones alrededor de estos dos
temas, sobre las cuales se ha construido el argumento de la disertación.
La primera cuestión, ineludible en el campo de investigación abordado, tiene que ver con la
condición de las prácticas de diseño computacional como manifestaciones culturales mediadas por
aspectos técnicos. Esto implica que su estudio no puede dejar de lado el problema central de la
relación compleja entre la producción cultural y la tecnología. Aquí se presentan algunas reflexiones
respecto al modelo de análisis adoptado, y sobre cómo este modelo abre pistas interesantes para
pensar el rol del pensamiento cibernético en el campo del diseño computacional.
Posteriormente se propone una introducción sintética a las ideas y conceptos centrales del
pensamiento cibernético, marco de referencia esencial para comprender la reflexión aquí planteada,
seguida de unos breves comentarios sobre la expansión de sus ideas hacia otras disciplinas, incluida
la arquitectura.
Este análisis bibliográfico señala tres aspectos cruciales para el argumento de la disertación. Primero,
el rol de la cibernética como disciplina primaria que ha dirigido un cambio de paradigma en
diferentes áreas del conocimiento; segundo, el influjo cibernético en el desarrollo de la perspectiva
computacional en la arquitectura; tercero, la necesidad de analizar este aspecto desde el punto de
vista de los modelos que conciben la construcción de lo cultural como un proceso que incluye
aspectos técnicos, o sea, como un proceso de retroalimentación entre artefactos e ideas donde no
hay una dicotomía entre cultura y tecnología.
Es en referencia a estas ideas que se ha planteado el problema central de la disertación, que, como
se ha visto arriba, apunta a señalar de qué modo los modelos dominantes en el campo de la
arquitectura computacional se han elaborado mediante referencias cruzadas entre las narrativas
puestas en circulación por la cibernética y las tecnologías computacionales introducidas en los
34
procesos de diseño, dando paso a una redefinición, en base a una ontología y epistemología
cibernética, de los problemas tradicionales de la arquitectura.
2.2 Cultura y tecnología
Anteriormente se planteó la necesidad de superar los modelos de análisis deterministas para
estudiar las manifestaciones de la arquitectura computacional, un terreno de exploración donde el
uso de herramientas digitales y la definición de los problemas de la arquitectura en base a modelos
de pensamiento ligados al paradigma informacional han jugado un rol significativo. Esta condición
obliga a tratar las manifestaciones de la arquitectura computacional como expresiones definidas por
aspectos ideológicos y como eventos técnicos. Por esta razón, la cuestión del papel asignado a lo
tecnológico en las producciones culturales se considera un factor crucial para el análisis planteado.
La reflexión propuesta implica una serie de preguntas respecto al rol de las tecnologías de la
información en la arquitectura. Estas preguntas son muy similares a las que los estudios sobre la
relación entre lo tecnológico y lo cultural tratan de responder: ¿es neutral la tecnología? O, por el
contrario, ¿tienen las tecnologías propiedades intrínsecas que determinan las culturas, o las
manifestaciones culturales, en las que estas se desarrollan o se introducen? Y, si este es el caso,
¿cómo evaluar su impacto cultural?
2.2.1 ¿Determinismo o neutralidad de la técnica?
Teniendo en cuenta que el origen de la informática estuvo íntimamente ligado al desarrollo de
nuevos paradigmas de pensamiento – entre ellos la teoría cibernética –, aquí se parte de considerar
que la informática no es una tecnología neutral, sino que se trata de un conjunto de técnicas
portadoras de una serie de contenidos que se reflejan en su pragmática y sus aplicaciones. Por lo
tanto, la pregunta que surge es si esta condición constituye un aspecto determinante para las
manifestaciones culturales basadas en su utilización. La premisa central de la disertación, según la
cual las narrativas puestas en circulación por la cibernética han sido una influencia mayor para las
manifestaciones más significativas del campo de la arquitectura digital, parecería apuntar en este
sentido.
No obstante, aquí también se ha manifestado que los análisis deterministas resultan inconvenientes,
pues conducen a visiones de la tecnología como un sujeto autónomo y tecnocrático, y a considerar
las cuestiones tecnológicas como factores aislados de las complejas redes que definen tanto los
2. Revisión de la literatura
35
aspectos técnicos de la profesión, como todos los demás aspectos involucrados la elaboración teórica
y la materialización de la arquitectura (Moe & Smith, 2012, p. 2).
En los análisis deterministas, herederos de la teoría marxista de la base y la superestructura, la
tecnología es considerada como un agente de cambio social, con frecuencia asociado a una idea de
progreso, y, por lo tanto, como un factor independiente, con propiedades inherentes y un curso de
desarrollo autónomo. En consecuencia el cambio tecnológico es concebido como un proceso libre de
factores sociales que sigue una lógica propia, y se asume que su implementación a gran escala
generaría por sí mismo un nuevo tipo de sociedad (Murphie & Potts, 2003, p. 12).
Este es el tipo de análisis planteado por Marshall Mcluhan y Jean Baudrillard, dos de los pensadores
más influyentes que han reflexionado sobre el impacto cultural de las tecnologías de la información.
Las propuestas de Mcluhan y Baudrillard constituyen dos posiciones deterministas antagónicas, que
de alguna manera resumen las visiones más corrientes sobre el impacto del fenómeno tecnológico
en la producción cultural contemporánea.
Para Mcluhan la tecnología es una extensión de las capacidades humanas, y la verdadera
significación cultural de las tecnologías de información no reside en su contenido sino en la manera
en que cambian nuestra percepción del mundo. Por lo tanto, según el autor de La Galaxia
Gutemberg, las sociedades son modeladas principalmente por la naturaleza de sus medios y no por el
contenido de sus expresiones. Al respecto dice Mcluhan que “[t]odos los medios nos trabajan
completamente. Son tan penetrantes en sus consecuencias personales, políticas, económicas,
estéticas, psicológicas, morales, éticas y sociales que no dejan ninguna parte de nosotros intacta,
inalterada. El medio es el mensaje.” (Mcluhan, 2001, p. 26) El autor plantea la misma idea en otras
palabras cuando afirma que “el medio moldea y controla la escala y la forma de la acción y las
asociaciones humanas” (Mcluhan, 2003, p. 203).
Mientras que para Mcluhan el carácter determinante de las tecnologías de información es la clave
para la construcción de una visión utópica de la sociedad de la información, Baudrillard asocia las
tecnologías de la información con el origen de una sociedad construida en base a simulacros. Según
Baudrillard las tecnologías de la información “no incluyen una relación social como vehículos de
contenido sino en su forma y operación”, y, debido a su propia forma, los medios incluyen “la
abstracción, separación y abolición del intercambio mismo.” Si la comunicación es intercambio, para
Baudrillard “los medios son anti-mediadores e intransitivos”, fabrican no-comunicación (Baudrillard,
2003, p. 280). En este sentido para el autor de Simulacros y simulación, quien considera que el
sistema de poder y control social está basado en este modelo, vivimos en una era de
irresponsabilidad, en un mundo donde la interacción social está basada en el consumo de mensajes,
36
una mecánica que impide toda posibilidad de respuesta y reciprocidad. Las personas ya no se
comunican sino que “están definitivamente aisladas en el hecho del discurso sin respuesta.”
(Baudrillard, 2003, p. 282)
Aunque los dos autores se refieren concretamente a los medios de comunicación, sus visiones sobre
la tecnología como factor de cambio han sido sumamente influyentes en el estudio de las relaciones
entre cultura y tecnología. Así, los análisis de Mcluhan y Baudrillard sobre las tecnologías de la
información como medios que transforman la sociedad, se han extrapolado al análisis del empleo
generalizado de las tecnologías de la información como medio de producción que determina las
formas de organización en las sociedades industriales contemporáneas.
12
Para Murphie y Potts, la dificultad que plantean las visiones deterministas del hecho tecnológico es
que, como se observa en los argumentos de Mcluhan y Baudrillard, se trata de discursos unilaterales
donde la tecnología es presentada como un factor desconectado del contexto sociocultural. Respecto
a esta constatación, el investigador social Ignacio Siles Gonzales plantea “no caer en la trampa del
determinismo tecnológico al atribuir la emergencia de la sociedad de la información únicamente a las
supuestas capacidades intrínsecas de las tecnologías, cualesquiera que sean, o las formas actuales de
almacenar la información y ponerla en movimiento: a su digitalización.” (Siles Gonzales, 2007, p. 87)
En relación con los objetivos de este trabajo, el modelo determinista de análisis resulta claramente
insuficiente para estudiar las prácticas contemporáneas de diseño computacional, en la medida que
estas prácticas son consideradas como un terreno de exploración definido por la interacción
compleja entre tecnologías, referencias a diversos modelos de pensamiento y los problemas
disciplinares tradicionales de la arquitectura.
En oposición a las posiciones deterministas, el culturalismo, o materialismo cultural, ha planteado un
modelo de análisis alternativo que sitúa la tecnología en un contexto sociocultural. Se trata de una
aproximación que propone el intercambio complejo entre los diferentes factores asociados al cambio
cultural. A diferencia del determinismo tecnológico, para el materialismo cultural la cultura es un
sitio de convergencia donde, de acuerdo con Raymond Williams, se encuentran “la suma de las
descripciones disponibles a través de las cuales las sociedades reflejan y dan sentido a sus
experiencias comunes.” (Citado en Hall, 1986, p. 35)
12
De hecho en el campo de la arquitectura computacional es común encontrar referencias al trabajo de los dos autores.
Mientras Mcluhan representa los ideales de una sociedad utópica de la información, ideales que no son ajenos al trabajo de
muchos arquitectos digitales, las ideas de Baudrillard han sido igualmente utilizadas para denunciar ciertos aspectos de las
prácticas arquitectónicas contemporáneasEl trabajo de Neal Leach, La an-estética de la arquitectura, es el mejor ejemplo de
2. Revisión de la literatura
37
En correspondencia con esta visión, en The Technology and the Society, Williams explica la dificultad
que plantea el lugar común de hablar de los efectos de la tecnología en la sociedad.
Para Williams el
estudio de los efectos puede permanecer superficial si no se tienen en cuenta las nociones de causa y
efecto entre tecnología y sociedad, tecnología y cultura y tecnología y psicología (Williams, 2003, p.
291) En el estudio de estas causas y efectos surgen múltiples interrogaciones sobre la diferencia
entre una tecnología y su utilización, entre el contenido y la forma de la tecnología. Si se considera la
tecnología una causa, se pregunta cómo se controlan sus efectos, si ésta es considerada como un
efecto, la pregunta que surge es cómo se relaciona este efecto con otras cusas, experiencias y usos.
13
Según Williams estas preguntas forman parte de las discusiones sociales y culturales y se definen
constantemente en la práctica “por decisiones efectivas y reales.” (Williams, 2003, p. 291)
De acuerdo con esta visión, la tecnología aparece como un factor más entre los aspectos que definen
la cultura.
14
Stuart Hall explica que el “interaccionismo” de Williams aparece entonces como
contestación de la teoría marxista de la base y la superestructura. En la aproximación culturalista el
materialismo y determinismo económico es reemplazado por la idea, más activa, de un campo de
fuerzas igualmente determinantes donde ningún modo de producción, o ninguna cultura dominante,
abarca la práctica, la energía y la intención humana. Por lo tanto, explica Hall, el culturalismo puede
definirse sin una referencia conceptual al término de ideología (Hall, 1986).
En este sentido las tecnologías no aparecen como fuerzas determinantes, sino como herramientas
que operan y son operadas en un campo social complejo. Lo que importa entonces es la forma en
que las tecnologías son utilizadas, más que una propiedad intrínseca a ellas. Así, al negar el carácter
la utilización de las ideas de Baudrillard para denunciar una práctica de la arquitectura limitada a la producción de imágenes
y simulacros.
13
Para el materialismo cultural “la cultura no se separa de otras prácticas del proceso histórico.” (Hall, 1986, p. 35) Dentro
de esta óptica no hay manera de que las manifestaciones culturales sean consideradas aparte y comparadas externamente
con otras cosas. “Si el arte es parte de la sociedad, no hay un todo sólido por fuera de éste al que por la forma de nuestras
preguntas concedamos prioridad. El arte está ahí, como una actividad, con la producción, el comercio, la política” (Hall,
1986, p. 35). En este sentido “estudiar las relaciones adecuadamente implica estudiarlas activamente, viendo todas las
actividades como…formas contemporáneas de energía humana.” (Hall, 1986, p. 35). Por otra parte se hace un énfasis
deliberadamente antropológico en el aspecto de la cultura, que se entiende como el conjunto de prácticas sociales, como
todo un modo de vida de relaciones activas e indisolubles entre elementos (Hall, 1986, p. 36). Hall propone que en este
contexto la teoría cultural es definida como el estudio de relaciones entre elementos en un modo de vida. El estudio de la
cultura sería un intento por revelar la naturaleza de la organización, es decir el complejo de esas relaciones (Hall, 1986, p.
36).
14
Los estudios culturales definen la cultura como “los significados y valores que surgen entre diferentes grupos y clases
sociales sobre la base de sus condiciones históricas y sus relaciones, a través de las cuales…se responde a las condiciones de
existencia” y “como las tradiciones y prácticas a través de las cuales esos acuerdos son expresados y en los que se
manifiestan” (Hall, 1986, p. 39).
38
determinante de la tecnología se va al extremo de considerarla como un factor neutral, como
herramienta vacía de contenidos esperando su uso para fines específicos (Murphie & Potts, 2003, p.
22).
La visión de la técnica como un factor neutral también ha sido cuestionada por diferentes autores.
Habermas, por ejemplo, mediante el análisis del concepto de neutralidad de la técnica de Freyer y
Schelsky,
15
pone en duda esta posición. Para Habermas el desarrollo tecnológico está dirigido a fines
e intereses
16
y por lo tanto “el mundo social de la vida”, o sea la cultura, está ampliamente
determinado por las aplicaciones técnicas que el desarrollo científico hace posible (Habermas, 2010,
pp. 125-126).
Desde luego, la crítica de Habermas nos devuelve al problema del determinismo tecnológico. Desde
una posición diferente, la noción de la neutralidad de la técnica también ha sido puesta en duda por
Bruno Latour, para quien “ningún proyecto técnico es en su principio técnico” (Latour, 1992, p. 35).
Pero para Latour, a diferencia de Habermas, pensar que el desarrollo tecnológico es simplemente un
medio para la realización de objetivos, o que la técnica no tiene otro objetivo que ella misma y su
propio desarrollo, obligaría a excluir todos los factores sociales, políticos y económicos que influyen
en la evolución del mundo de la técnica.
Entonces, volviendo al modelo culturalista, aunque este presenta la ventaja de proponer el
intercambio complejo entre los diversos factores asociados al cambio cultural, la minimización del
concepto de ideología – que puede llevar a una visión de la tecnología como un aspecto neutral en la
producción cultural – también resulta inadecuado para el análisis aquí planteado. Si se piensa que el
desarrollo de las tecnologías de la información se encuentra profundamente entrelazado con la
emergencia de un nuevo paradigma de pensamiento, cristalizado en la cibernética, estas aparecen
15
Habermas explica el modelo de Freyer y Schelsky para refutar el planteamiento de la tecnología como neutral: “Frente al
estadio primitivo de la evolución técnica, hoy parece invertirse la relación de la organización de los medios para fines dados
o para fines en anteproyecto. De un proceso de investigación y de realizaciones técnicas que obedecen a leyes inmanentes,
resultan, sin planificación alguna, por así decirlo, los nuevos métodos, para los que sólo después encontramos fines que
permiten su utilización. Por medio de un proceso que se ha vuelto automático, esta es la tesis de Freyer, adquirimos en
sucesivas oleadas un poder abstracto; poder del que tienen que apoderarse después los intereses sociales y la fantasía
creadora de sentido, para hacer uso de él con finalidades concretas. Schelsky agudiza y simplifica esta tesis de que el
progreso técnico junto con los métodos no previstos dan lugar ellos mismos a los fines no planificados que permiten su
utilización: las posibilidades técnicas imponen a la vez su propio aprovechamiento práctico.” (Habermas, 2010, p.125-126).
16
Al aceptar el poder de determinación de la tecnología, para Habermas el problema radicaría en cómo pensar la relación
entre el progreso técnico y la cultura, y cómo someter esa relación a controles democráticos. Es decir, para Habermas la
tecnología constituye una forma de poder, pero es posible y necesario crear marcos de acción política correspondientes
(Habermas, 2010, p.125-126).
2. Revisión de la literatura
39
como un conjunto de técnicas portadoras de valores y contenidos, hay autores que incluso se
refieren a la teoría cibernética como ideología, que se reflejan en su forma y sus aplicaciones.
Teniendo en cuenta las limitaciones implícitas tanto en los análisis deterministas como en los análisis
culturalistas, la pregunta que surge es cómo analizar el rol de las tecnologías de la información en la
producción arquitectónica, sin perder de vista que estas son portadoras de unos contenidos
intrínsecos y evitando al mismo tiempo caer en las simplificaciones de los análisis deterministas.
2.2.2 Objetos híbridos
La respuesta puede encontrarse en el trabajo de autores como Donna Haraway, Katherine Hayles y el
mismo Bruno Latour, quienes, inspirándose en gran medida en los modelos de causalidad
cibernéticos, han presentado modelos de análisis según los cuales los objetos técnicos aparecen
simultáneamente como productos culturales y como un factor relevante para la construcción de la
cultura. De esta manera lo cultural aparece permeado por lo tecnológico de la misma manera que lo
tecnológico se concibe como un aspecto central de la producción cultural. Así se superan las
simplificaciones del determinismo, al tiempo que la dificultad de pensar la tecnología como un
aspecto neutral cuyo desarrollo aparece desligado de la producción cultural.
En su influyente ensayo Nous n’avons jamais été modernes, Latour apunta precisamente a
desmontar el mito según el cual que existe una separación entre lo que el autor llama el polo
naturaleza y el polo sujeto/sociedad, es decir, entre las ciencias naturales y la cultura en la sociedad
moderna. A cambio Latour propone una visión según la cual la ciencia y la cultura convergen y se
definen mutuamente. Este proceso es definido por el autor como un “trabajo de mediación”, que
define un panorama del desarrollo técnico según el cual los objetos científicos circulan en el mundo a
la vez como sujetos, objetos y discursos (Latour, 1992, p. 89).
Hayles, de manera similar, concibe la construcción del conocimiento como un modelo de seriación, o
sea, como un proceso de retroalimentación permanente entre tecnologías y percepciones, entre
artefactos e ideas. Según este modelo los campos conceptuales evolucionan de manera paralela a la
cultura material. En consecuencia los artefactos expresan los conceptos que reproducen y, al mismo
tiempo, los procesos de construcción de objetos técnicos dan paso a la formulación de nuevos
conceptos (Hayles, 1999, p. 15).
Haraway propone formular una teoría que señale las relaciones sociales de ciencia y tecnología,
incluyendo los sistemas de mitos y significados que estructuran los imaginarios. En este sentido
40
Haraway dice que “las tecnologías y los discursos científicos pueden ser entendidos…como
momentos congelados de las interacciones sociales fluidas que los constituyen, pero también pueden
ser vistos como instrumentos para reforzar significados. El límite es permeable entre herramienta y
mito, instrumento y concepto, sistemas históricos de relaciones sociales y anatomías históricas de
cuerpos posibles, incluyendo objetos de conocimiento. De hecho, mito y herramienta se constituyen
mutuamente el uno al otro.” (Haraway, 2003, p. 524) Para Haraway la restructuración del mundo a
través de las relaciones sociales de la ciencia y la tecnología no constituye un determinismo
tecnológico sino que se trata de un “sistema de relaciones estructuradas entre gente”. (Haraway,
2003, p. 525) Se trata desde luego de un sistema mediado por la tecnología, pero se considera que la
tecnología no determina sino que hace posibles ciertas formas de organización.
Desde esta perspectiva la comprensión de las herramientas tecnológicas, y de su impacto en la
sociedad, debe tener en cuenta los factores que se encuentran en el origen de su desarrollo técnico.
De este modo, si se piensa en el desarrollo del pensamiento informacional, este paradigma de
pensamiento no aparece simplemente como el resultado de la emergencia de las tecnologías de la
información, sino como una construcción cultural en la cual los aspectos técnicos han jugado un
papel relevante. De la misma manera, también se entiende que las tecnologías computacionales han
sido el resultado de un proceso complejo de construcción de artefactos e ideas, y que los modos de
operación propios a su utilización no pueden desprenderse de cierta manera de pensar y actuar en el
mundo. Esto mismo se aplica a las exploraciones computacionales del diseño arquitectónico.
2.2.3 Diseñar un mundo tecnológicamente mediado
Lo anterior señala una pista interesante para responder a la pregunta de cómo pensar el rol de las
tecnologías informáticas en la arquitectura computacional, sin recurrir a las simplificaciones del
determinismo y de la neutralidad de la técnica. La respuesta se encuentra en pensar la arquitectura
computacional como un campo que se encuentra inmerso dentro de un paradigma que envuelve
aspectos ideológicos y técnicos. Por ejemplo, un aspecto relevante del las producciones de la
arquitectura computacional es que estas han constituido en gran medida una reflexión sobre lo que
significa el habitar (o diseñar) en un mundo tecnológicamente mediado. Así el trabajo de muchos
arquitectos digitales, además de orientarse hacia la definición de nuevas metodologías de diseño
tecnológicamente mediadas, han constituido reflexiones sobre el rol de las tecnologías de la
información en la profesión y en la sociedad, sobre el carácter del espacio en una sociedad
informatizada, sobre la trasgresión de los límites tradicionales entre hombre, naturaleza y tecnología
y sobre el estatus acordado en la cultura contemporánea al concepto de información.
2. Revisión de la literatura
41
En consecuencia se entiende que, aunque la informática ha sido un factor crucial para la definición
de nuevas aproximaciones al diseño, la introducción de estas herramientas no es necesariamente la
razón última, o única, de la concepción informacional de la arquitectura. Como se verá, la definición
de los problemas de la arquitectura como procesos informacionales ha sido en gran medida el
resultado de explorar nuevas visiones del diseño informadas por nuevos modelos epistemológicos
que se desprenden del pensamiento cibernético.
De este modo la introducción de las herramientas informáticas en el diseño aparece, no como un
aspecto determinante en la producción arquitectónica, sino como el medio de producción ideal para
explorar ciertas ideas particularmente influyentes en la cultura contemporánea. Sin embargo, lo
anterior no niega la condición de la informática como tecnología portadora de una manera particular
de entender el mundo y de actuar en él; o como diría Lev Manovich, de una ontología, epistemología
y pragmática (Manovich, 2001).
2.2.4 Transcodificación informática
Esta visión de las relaciones entre informática y producción cultural también se encuentra en el
análisis propuesto por autores como Lev Manovich y Janet H. Murray del campo de los nuevos
medios, un campo que, por definición, incluye entre sus objetos de estudio las producciones de la
arquitectura computacional.
17
Para Murray el campo de los nuevos medios se define precisamente por la retroalimentación entre
capas científicas y culturales, y adquiere forma en objetos híbridos que son al mismo tiempo
innovaciones tecnológicas y prácticas culturales. De acuerdo con Murray, en este campo lo cultural y
lo tecnológico aparecen tan estrechamente ligados que no podemos retroceder en nuestro esfuerzo
cognitivo comprometido con la tecnología, “puesto que los medios digitales son tanto patrones de
percepción y de pensamiento como el patrón para hacer cosas.” (Murray, 2003, p. 11)
De acuerdo con la propuesta de Murray, la producción digital de objetos culturales no se relaciona
únicamente con los modos numéricos de operación, sino, de manera más amplia, con una ontología
y una epistemología informacional. En este sentido, el empleo de la informática en la arquitectura
conllevaría insertar la profesión dentro de un marco, como el propuesto por Hayles, de construcción
conjunta de significados culturales y productos técnicos.
42
El principio de “transcodificación cultural” de los nuevos medios propuesto por Manovich apunta en
el mismo sentido. Este concepto, mediante el cual el autor explica la condición de las prácticas de los
nuevos medios como manifestaciones culturales y técnicas, abre perspectivas interesantes para
analizar las relaciones entre los contenidos propios de la informática, las herramientas de
concepción y los nuevos imaginarios que se desarrollan en el campo del diseño computacional.
Transcodificar, dice Manovich, es traducir algo en otro formato. Para el autor, la computarización de
la cultura implica una transcodificación de las categorías culturales; esto equivale a decir que estas
son reemplazadas “al nivel del significado y/o del lenguaje” por otras que se derivan de “la ontología,
epistemología y pragmática del computador.” (Manovich, 2001, p. 47).
No obstante, lo anterior no constituye una visión determinista, en la medida que se considera que las
capas culturales también influencian las capas tecnológicas. De hecho, el concepto de
transcodificación utilizado por Manovich es bastante cercano de las propuestas de Latour, Haraway y
Hayles para explicar el intercambio entre lo cultural y lo tecnológico. Para Manovich las dos capas se
componen juntas, de modo que el resultado “es una nueva cultura informática – una mezcla de
significados humanos e informáticos, de formas tradicionales por medio de las cuales la cultura
humana modela el mundo y los modos propios del computador de representarlo” (Manovich, 2001,
p. 46).
Trasladada al problema de investigación aquí planteado, esta idea sugiere que para comprender las
producciones digitales de la arquitectura, es necesario entender en qué medida la ontología y la
epistemología propias de la computación aparecen en el centro de sus construcciones.
Teniendo en cuenta el estrecho vínculo entre el pensamiento cibernético y el origen de la
informática, la comprensión de las ideas promovidas por este modelo de pensamiento debería
ayudar a comprender de qué manera las elaboraciones de la arquitectura computacional se
relacionan no solamente con la pragmática computacional, sino con la visión del mundo, y los modos
de actuar en él, que subyacen al desarrollo de las ciencias de la computación.
17
Siguiendo la definición propuesta por Lev Manovich, en la historia visual contemporánea se identifican como nuevos
medios las prácticas que emplean la informática como medio de producción, distribución y exhibición (Manovich, 2001, p.
18).
2. Revisión de la literatura
43
2.3 Teoría cibernética
A continuación se propone una breve introducción a las ideas centrales del pensamiento cibernético.
Se hará referencia principalmente a las obras de divulgación escritas por Norbert Wiener y a algunos
aspectos de su colaboración con Julian Bigelow y Arturo Rosenblueth. Estos textos, escogidos entre
una amplia bibliografía, resumen bastante bien las intenciones, orígenes y principales supuestos que
dieron forma a esta disciplina.
El pensamiento cibernético surgió prominentemente en Estados Unidos en los años posteriores a la
segunda guerra mundial. Este paradigma científico, que se consolidó alrededor de la premisa que
todos los fenómenos en el mundo podían explicarse como procesos de intercambio y de circulación
de información, se construyó en base a la teoría de la información de Claude Shannon, el modelo del
funcionamiento neuronal como un sistema de procesamiento de información de Warren McCulloch,
el trabajo de John von Neuman sobre máquinas procesadoras de códigos binarios, y la articulación
propuesta por uno de sus principales teóricos, Norbert Wiener, de todas estas nociones y desarrollos
tecnológicos en una teoría de pretensiones universales (Hayles, 1999, p. 7).
Conceptualizada en los años cuarenta, la cibernética se convirtió en un referente ineludible en
diversas áreas del conocimiento desde la segunda mitad del siglo XX. En la actualidad no cabe duda
que su influencia ha sido crucial para el desarrollo de algunos de los modelos más influyentes en el
pensamiento occidental contemporáneo. De cierta manera, la expansión del pensamiento
cibernético aparece como cumplimiento de la aspiración de Wiener – expuesta en obras de
divulgación clave como Cibernética y Sociedad o Cibernética o el control y comunicación en animales
y máquinas – de ver el estudio de la comunicación consolidarse como una ciencia transversal, que
eventualmente permitiría superar los límites establecidos entre diferentes disciplinas.
De hecho, en la introducción de Cibernética Wiener explica su temprana convicción, compartida con
el fisiólogo mexicano Arturo Rosenblueth, que los campos de estudio desatendidos entre las distintas
especialidades constituían los terrenos más valiosos para el desarrollo de la ciencia.
18
Este interés por
la interdisciplinariedad también aparece claramente expuesto en el artículo Behavior, Purpose and
18
Wiener señala que “[e]l Dr. Rosenblueth insistía siempre en que la correcta exploración de esas zonas vírgenes del mapa
científico sólo podría llevarla a cabo un equipo de científicos, especialista cada uno de ellos en su propio campo, pero con
conocimientos profundos y experiencia práctica en las especialidades de sus colegas, además de ser individuos habituados
al trabajo en equipo y conocedores de las costumbres intelectuales de sus colegas al punto de ser capaces de reconocer la
importancia de una sugerencia, aun antes de que esta haya sido formulada formalmente.” (Wiener, 1998, p. 25)
44
Teleology, que algunos comentaristas consideran como el texto inaugural del pensamiento
cibernético.
En este artículo Wiener y Rosenblueth, en colaboración con Julian Bigelow, proponen un método
conductista para definir el estudio de los eventos naturales y clasificar su comportamiento. Al limitar
el estudio del comportamiento al análisis de los eventos externos que lo modifican (inputs), y de los
cambios observados en el objeto de estudio a causa de esos eventos (outputs), el estudio concluye
que “un análisis conductista uniforme es aplicable tanto a las máquinas como a los organismos
vivientes, independientemente de la complejidad del comportamiento.” (Rosenblueth, et al., 1943,
p. 22) De esta manera las diferencias entre los organismos y las máquinas se desvanecían, y con ellas
los límites entre las ciencias de la vida y la ingeniería, al demostrar que tanto los organismos como
las máquinas podían clasificarse bajo las mismas categorías (Bowker, 1993).
Más importante aún, mediante este modelo de análisis los seres humanos, los seres vivientes en
general y los servomecanismos, fueron caracterizados como sistemas de retroalimentación, como
sistemas cuyo funcionamiento depende de una mecánica comunicacional. Crucialmente, Wiener
explica que en su teoría los problemas de control y de comunicación eran considerados inseparables
y se centraban en torno al mensaje, “ya fuera transmitido por medios eléctricos, mecánicos o
nerviosos.” (Wiener, 1998, p. 31).
De esta manera la comunicación fue conceptualizada como el aspecto fundamental de una serie de
fenómenos de interés para la ciencia, al tiempo que la teoría cibernética se presentó como el modelo
científico que proveía las herramientas para su estudio. En una de las definiciones propuestas de su
teoría, Wiener describe la cibernética como “el estudio del lenguaje, el estudio de los mensajes en
tanto que medios de control sobre las máquinas y la sociedad, el desarrollo de máquinas de cálculo y
otros aparatos automatizados análogos”, y sus problemas de investigación como consideraciones
sobre “la psicología y el sistema nervioso y una nueva teoría experimental del método científico.”
(Wiener, 1962, p. 15)
La anterior definición deja claro que Wiener consideraba la teoría cibernética como una suerte de
teoría científica general, que aspiraba a influir en esferas mucho más amplias que el problema
concreto de la aplicación tecnológica de las teorías de la comunicación.
19
En el desarrollo de una
19
Esta aspiración aparece claramente en el objetivo planteado por Wiener, para quien la cibernética debía contribuir al
desarrollo de un lenguaje científico universal y redefinir la labor del científico en la sociedad. El alcance de esta nueva
ciencia se planteaba de tal modo que Wiener incluso especuló sobre las posibles influencias de la teoría cibernética en
diversos aspectos de la vida social. En muchos de sus escritos Wiener aborda temas que, además de consideraciones
técnicas y teóricas, incluyen perspectivas filosóficas, políticas, sociológicas e incluso religiosas en las que la cibernética
estaba llamada a jugar un rol esencial (Wiener, 1962, p.11).
2. Revisión de la literatura
45
teoría que proponía que la transmisión de mensajes era el factor común a todos los fenómenos
observables, el estudio de la comunicación se asumía no como “un saber más, sino como el elemento
común de todas las disciplinas.” (Siles Gonzales, 2007, p. 87)
Estas consideraciones se construyeron alrededor de tres nociones clave que definen en gran medida
el programa cibernético: entropía, información y retroalimentación.
2.3.1 Entropía, información y retroalimentación
Gran conocedor del trabajo del físico W. Gibbs, a quien Wiener atribuye la primera revolución de la
física del siglo XX, el autor de Cibernética da particular importancia en su teoría al concepto de
entropía. Este es el primero de los tres conceptos mencionados que Wiener introduce en Cibernética
y Sociedad.
Refiriéndose al estudio de los sistemas dinámicos, Wiener explica que lo que se puede establecer de
estos no es lo que se podría predecir si fuera posible conocer sus momentos iniciales con precisión
exacta (que es casi siempre imposible), sino lo que se puede predecir cuando los momentos iniciales
se conocen con una precisión dada, o sea, cuando no se conocen las condiciones iniciales, pero se
tiene una idea de su repartición (Wiener, 1962, p. 7) Para Wiener la gran contribución de Gibbs a la
ciencia fue haber puesto en marcha un método probabilístico que permitía estudiar el carácter
contingente de algunos fenómenos naturales. Gibbs elaboró una teoría según la cual en la medida
que el universo envejece, este tiende a su estado más probable, uno de máxima desorganización.
Wiener afirma que “la medida de esa probabilidad es la entropía, cuya tendencia característica es
crecer.” (Wiener, 1962, p. 12) Esto equivale a decir que en la medida que el universo envejece, este
pasa de un estado de organización y diferenciación a un estado de caos uniforme. Esta visión refleja
uno de los principios más importantes de la física, la segunda ley de la termodinámica, que establece
que la entropía de un sistema cerrado nunca decrece, porque los sistemas cerrados evolucionan
espontáneamente hacia un equilibrio termodinámico, o sea, hacia un estado de máxima entropía.
En un universo que tiende al caos existen, sin embargo, enclaves donde se observa una tendencia
“limitada y temporal al crecimiento de la organización. La vida se encuentra en uno de esos
enclaves.” (Wiener, 1962, p. 12). En el pensamiento de Wiener los organismos, y por extensión las
máquinas capaces de comunicarse, son sistemas de entropía decreciente. Puesto que desde la
46
perspectiva cibernética el secreto de la organización, tanto de los organismos como de la sociedad,
son los sistemas de comunicación, la cibernética se construyó como la ciencia del control y
regulación de estos sistemas; lo cual equivale a decir que la cibernética era concebida por Wiener
como una herramienta de lucha contra la tendencia de la naturaleza hacia la entropía.
Aquí aparece el rol del concepto de información. En esta lucha la información, también definida
como entropía negativa, aparecía como el factor clave. Según la teoría cibernética “en nuestro
mundo la entropía no aumenta mientras que la organización y su corolario, la información, se
desarrollan” (Wiener, 1962, p. 37)
En el pensamiento de Wiener el concepto de información aparece íntimamente relacionado con el
concepto central de comunicación., Antes ya se ha señalado que la teoría cibernética se organizó
alrededor de la premisa “según la cual la verdadera naturaleza de todo ser observable se encuentra,
esencialmente, en sus relaciones de comunicación”; según Breton y Proulx, por “relaciones de
comunicación” se entiende el “intercambio y circulación de informaciones que todo ser sostiene con
otras entidades de su entorno.” (Citado en Siles Gonzales, 2007, p.88)
Este intercambio permanente es descrito en términos de un propósito definido: recibir y utilizar
información del medio ambiente es un proceso cuya finalidad es la adaptación de los seres a su
contexto para vivir de manera eficaz con este: “[v]ivir eficazmente es vivir con la información
adecuada.” (Wiener, 1962, p. 19) Lo anterior es indisociable de la cuestión de la regulación de la
comunicación en la teoría cibernética, tema que se desarrolla esencialmente alrededor del concepto
retroalimentación.
Puesto que en la teoría cibernética el intercambio de mensajes constituye un modelo de
organización, la información proporcionada por una serie de mensajes es considerada como la
medida de la organización de un sistema. Así, en cualquier sistema capaz de intercambiar
información con su entorno,
20
la información intercambiada aparece como el elemento regulador
que permite mantener al sistema en equilibrio, a pesar de la tendencia natural del mundo hacia la
desorganización (Wiener, 1962, p. 32).
20
De acuerdo a la segunda ley de la termodinámica en todo sistema cerrado la entropía aumenta.
Los organismos y
máquinas cibernéticas, en tanto que sistemas que intercambian mensajes con su medio ambiente, no se consideran
sistemas cerrados: estos toman energía del exterior y actúan de acuerdo a la información que reciben a través de sus
sentidos (Wiener, 1962, p. 28). Este es el problema central del trabajo de influyentes científicos como Ludwing Von
Bertalanffy e Ilya Prigogine, cuyas ideas constituyeron una extensión de los planteamientos de la cibernética.
2. Revisión de la literatura
47
El proceso mediante el cual un sistema modifica su comportamiento en función de la información
que recibe de su contexto, es lo que en la teoría cibernética se llama retroalimentación, termino
heredado de la ingeniería de control, que se refiere a los mecanismos de adaptación y aprendizaje
fundamentales para el programa cibernético.
Este es uno de los temas centrales expuestos en Behavior, Purpose and Teleology, donde se define la
retroalimentación como el proceso mediante el cual los mensajes de salida de un proceso (output)
son reutilizados como mensajes de entrada (inputs). Según el método establecido por Wiener y sus
colegas, los sistemas de retroalimentación son un aspecto común entre los organismos y las
máquinas de comunicación.
En Cibernética y Sociedad Wiener explica este punto así: “[l]a tesis es que el funcionamiento físico del
individuo y las operaciones de cientos de máquinas de comunicación son exactamente paralelas en
su esfuerzo por controlar la entropía por medio de la retroalimentación.” (Wiener, 1962, p. 31) Para
Wiener lo que define las capacidades de adaptación y aprendizaje en los animales y las máquinas son
los mecanismos que permiten a éstos “recoger información que viene del mundo exterior y
convertirla en información valida en el funcionamiento del sistema.” (Wiener, 1962, p. 32)
Céline Lafontaine señala que este es el aspecto fundamental de la representación cibernética de la
comunicación, a saber, su concepción como un fenómeno circular y sin fin (Lafontaine, 2004, p. 46).
A esta idea corresponde la visión del mundo que se desprende del modelo cibernético, que desde
entonces ha sido concebido como un sistema regido por una lógica de causalidad recíproca, como un
meta-sistema en el que todos sus componentes se encuentran inmersos en un proceso de
interacción permanente. Este ha sido sin duda uno de los aportes más significativos de la teoría
cibernética al pensamiento contemporáneo.
El historiador de la ciencia Peter Gallison expone claramente lo anterior. Gallison afirma que a partir
del momento en que Wiener comenzó a pensar en los pilotos de los aviones de guerra enemigos
“como una especie de máquina de retroalimentación que podía ser imitada electrónicamente”, sólo
faltaba “un pequeño paso para pensar en los artilleros aliados del mismo modo. A continuación la
fisiología humana empezó a aparecer como un sistema cibernético, a continuación la mente humana,
a continuación la vida, a continuación incluso el mundo en su totalidad.” (Gallison, 2003, p. 223)
En efecto, en el mundo de la ciencia han proliferado diferentes visiones de los fenómenos físicos,
sociales, naturales y artificiales que, bajo el influjo del pensamiento cibernético, han transformado
los problemas de investigación en diversos campos del conocimiento. Esta migración de conceptos
desde la cibernética hacia otros campos ha sido un aspecto esencial para el desarrollo y evolución de
48
un campo como la arquitectura computacional. Por lo tanto, comprender como ha operado la
propagación de las ideas cibernéticas hacia otras disciplinas, es decisivo para entender el punto que
la disertación trata de demostrar, a saber, de qué modo las narrativas puestas en circulación por los
cibernéticos se han encontrado en el centro de muchas de las producciones digitales de la
arquitectura.
2.4 La expansión del modelo cibernético
Puesto que el interés de esta disertación es comprender el influjo del pensamiento cibernético en la
arquitectura computacional, y teniendo en cuenta que en este campo han jugado un rol importante
diversos modelos de pensamiento herederos de los discursos de la información, es fundamental
comprender como ha operado la transferencia de las ideas cibernéticas hacia otras disciplinas.
Philippe Breton afirma que el conocimiento de los orígenes y antecedentes del desarrollo de las
tecnologías de la información debería ayudar a entender el sistema de valores y conceptos que estas
tecnologías encarnan. Por lo tanto, antes de dar una mirada al trabajo de diferentes autores que han
estudiado cómo ha operado la propagación de las ideas cibernéticas, es esencial comprender el rol
de la cibernética en la emergencia de la ciencia de la computación.
2.4.1 La cibernética y la informática
En los primeros años de su desarrollo la informática estuvo tan estrechamente ligada a la
formulación de la teoría cibernética, que es posible afirmar que en sus inicios estos dos campos
compartieron los mismos problemas. La cibernética fue una disciplina primaria para la informática,
tanto como el desarrollo de ésta última lo fue para la cibernética. Por esta razón, los imaginarios
cibernéticos han permeado, a lo largo de los años, los problemas de la informática.
En su historia de la informática, Breton sugiere que el primer periodo de desarrollo de la informática,
que corresponde al momento de la puesta en marcha de los principios fundamentales y de las
grandes innovaciones, estuvo íntimamente ligado a la formulación de las ideas cibernéticas. Aunque
desde entonces la informática ha evolucionado notablemente y se ha consolidado como un campo
de investigación independiente, el autor de Une histoire de l’informatique considera que desde su
nacimiento la ciencia de la computación se basó en una serie de principios compartidos con la
cibernética (Breton, 1990, p. 141); principios que han permanecido tanto en el plano del imaginario y
del sistema de valores que subyacen a la disciplina, como en el plano de las técnicas empleadas.
2. Revisión de la literatura
49
Esta tesis es confirmada por varios historiadores y sociólogos de la ciencia, que han planteado que las
nociones que dieron forma a la cultura técnica y científica contemporánea se desarrollaron en la
década del cuarenta del siglo pasado, en Inglaterra y fundamentalmente en Estados Unidos, en un
contexto fuertemente marcado por la guerra (Gallison, 2003, Heims, 1986, Kay, 2000, Edwads, 1997).
Dentro de este contexto, los principales temas alrededor de los cuales se consolidaron la informática
y la cibernética (información, comunicación, comportamiento, complejidad, retroalimentación,
control, regulación, recursividad, lógica, programación) fueron objeto de intenso debate entre una
comunidad de investigadores provenientes de diferentes áreas como las matemáticas, la ingeniería
eléctrica, la lógica, la psiquiatría y la neurofisiología. En el centro del debate se situaban dos
problemas de investigación concretos: la construcción de máquinas de cálculo y el estudio del
comportamiento humano inteligente (Breton, 1990, p. 142).
Según Breton, durante el periodo comprendido entre 1940 y 1950 las relaciones entre la cibernética
y la naciente ciencia de la informática fueron tan estrechas, que con frecuencia se atribuye a la
cibernética el origen de la computación. Esto debido a que figuras como Turing, von Neumann,
Eckert y Wilkes aparecen con frecuencia en los mismos escenarios que los principales científicos
vinculados al desarrollo del pensamiento cibernético: Shannon, Wiener, McCulloch y Pitts, entre
otros. Aunque los primeros se preocuparon más por el desarrollo de una ciencia de computadores
que por el enfoque multidisciplinar de la cibernética, los intercambios entre unos y otros fueron
intensos y durante el periodo inicial de desarrollo de la cibernética y la informática era común
encontrar reunidos en coloquios y conferencias a los principales investigadores involucrados en los
dos campos (Breton, 1990, pp. 151-152).
Esto explica que las nociones fundamentales que dieron origen a la teoría cibernética sean las
mismas que confluyeron en el desarrollo de las tecnologías de la información; así, muchos aspectos
centrales del pensamiento cibernético hacen parte del imaginario vigente de la informática. Estos
incluyen la comparación entre el cerebro y el computador, la reificación de la información, la visión
de un futuro transformado por las tecnologías de información, o la idea según la cual la lógica es un
valor universal y una herramienta para comprender el mundo y transformarlo (Breton, 1990, p. 157).
Desde luego estos imaginarios no tuvieron impacto únicamente en el desarrollo informática. Bajo el
influjo cibernético, en diferentes áreas del conocimiento, han proliferado diversas visiones de los
fenómenos en el mundo como sistemas interconectados, como procesos comunicacionales, como
mecanismos homeostáticos, etcétera. Alrededor de estas ideas se han construido algunos de los
modelos más influyentes en el pensamiento occidental contemporáneo, entre ellos algunos que han
ejercido notable influencia en las formulaciones de la arquitectura desde mediados del siglo XX.
50
La expansión del paradigma cibernético ha sido estudiada por varios autores desde perspectivas
diferentes. Aquí se propone examinar unos cuantos de estos trabajos, que dan una idea de cómo, y
por qué, las ideas de la cibernética se propagaron y se convirtieron en un referente común en
diferentes campos.
Philippe Breton ha explorado de qué manera los discursos de la comunicación se convirtieron en la
ideología dominante y el factor decisivo en la constitución de lo que hoy se define como sociedad de
la información. Geof Bowker ha analizado las herramientas retóricas y prácticas empleadas por los
cibernéticos para dar legitimidad a su modelo de pensamiento. Jean François Lyotard ha examinado
la importante incidencia de la referencia al lenguaje en la ciencia y la tecnología, y de qué modo
tanto las tecnologías informáticas como la noción de información han transformado los campos del
saber. Céline Lafontaine, en un trabajo más reciente, ha estudiado la influencia de la teoría
cibernética en el conjunto de las ciencias sociales contemporáneas.
2.4.2 La utopía de la comunicación
En L’utopie de la Communication Philippe Breton estudia el enorme impacto de las ideas cibernéticas
en la cultura contemporánea y la expansión de sus ideas hacia diversos campos del conocimiento.
Desde la lectura propuesta por el autor, la teoría cibernética se presenta no sólo como un modelo
científico, sino como una visión utópica de la sociedad basada en la idea central de comunicación,
cuyos postulados han tenido importantes repercusiones tanto en los campos de la ciencia y la
tecnología, como en el plano cultural, social y político.
Breton considera que la premisa fundamental, y a la vez la idea más influyente de la cibernética, es la
noción según la cual todos los fenómenos del mundo visible pueden ser comprendidos en términos
de relaciones, de intercambio y de circulación de información. Gracias a esta idea de base, la
comunicación se habría convertido en un valor de gran alcance político y social. Breton recuerda que
el proyecto de Wiener, que aspiraba a promover una nueva definición antropológica del hombre y a
situar la comunicación como valor fundamental en la sociedad, implicaba tres grandes imperativos.
Primero, el reconocimiento del hombre como ser comunicante, segundo, que las máquinas
recibieran un nuevo estatus en la sociedad y, finalmente, que gracias al carácter abierto de las vías de
comunicación la sociedad se convirtiera en un sistema auto-regulado (Breton, 1995).
Consecuentemente, argumenta Breton, junto al nuevo valor que adquirió la idea de comunicación,
las tecnologías de la información comenzaron a ser consideradas como la herramienta que haría
posible la emergencia de una sociedad de la comunicación. Para el autor de L’utopie de la
2. Revisión de la literatura
51
comunication, ha sido a partir de la visión utópica de la sociedad de la comunicación, promovida por
el propio Wiener, que se han construido los discursos sobre la revolución informática y la sociedad
de la información.
21
Habiéndose convertido en valor dominante, la visión informacional del mundo promovida por la
cibernética, se habría convertido en el paradigma alrededor del cual diversas disciplinas redefinieron
sus problemas de investigación. En consecuencia, según Breton, el desarrollo de diferentes modelos
científicos informados por los discursos de la información fue al mismo tiempo la consecuencia de la
difusión de las ideas cibernéticas, y su principal medio de propagación.
En su análisis de las estrategias retóricas empleadas por los cibernéticos para legitimar su modelo,
Geof Bowker llega a una conclusión similar a la propuesta por Breton; a saber, que la cibernética se
constituyó como la disciplina primaria a partir de la cual se definió el programa de investigación de
otros campos disciplinares, y que esta transferencia de conceptos constituyó a su vez el principal
medio de expansión del pensamiento cibernético.
2.4.3 Un modelo universal
En el artículo How to be Universal: Some Cybernetic Stategies 1943-1970, Bowker discute tres
aspectos fundamentales para explicar este fenómeno: en primer lugar, el autor plantea que la
reivindicación de universalidad de la cibernética se basó en una nueva lectura de la historia humana;
en segundo lugar, qué esta nueva lectura fue potenciada por el desarrollo de un nuevo lenguaje y,
finalmente, qué este lenguaje fue utilizado para sugerir la validez de una nueva división del trabajo
dentro de las ciencias (Bowker, 1993, p. 108).
21
Anunciada primero como revolución postindustrial, después como revolución informática y más recientemente en
términos de las posibilidades abiertas por las autopistas de información, la comunicación como valor continúa teniendo un
gran impacto tanto en la ciencia como en la cultura contemporánea. En este sentido, el investigador Emanuel Eveno
recuerda que el tema de la comunicación está presente en numerosos espacios de discusión, “en innombrables discursos
políticos, en la justificación de políticas públicas ambiciosas y tiende a imponerse como la ideología de los tiempos
modernos, de la modernidad y de la postmodernidad. Ésta substituye las grandes ideologías políticas como el comunismo o
el liberalismo.” (Eveno, 1998, p. 305) Eveno, quien propone una lectura similar a la de Breton del rol de la noción de
comunicación y de su influencia desde la posguerra hasta la actualidad, sugiere una hipótesis interesante que puede
relacionarse con lo propuesto por otros autores como Jean François Lyotard y Geof Bowker. Para el autor, el enorme
alcance de las nociones de comunicación e información se debe a que las tecnologías de información (sus más directas
herederas) se han considerado como intrínsecamente portadoras de un orden social y político que se impone, sino
naturalmente, al menos lógicamente (Eveno, 1998, p. 305).
52
Para Bowker, en el artículo inaugural, Behavior, Purpose and Teleology, ya aparece de manera
evidente una particularidad del pensamiento de Wiener. Se trata de su capacidad para referirse a
problemas muy concretos y, a partir de los mismos principios, referirse a cuestiones generales y
sumamente abstractas. La estrategia empleada era “producir una taxonomía de diferentes tipos de
comportamiento…Después se demostraba que los animales y las máquinas podían encontrarse en los
dos lados de cada división.” (Bowker, 1993, p. 110).) Bowker sostiene que al definir las máquinas
como sistemas análogos a los seres vivos, gracias a su carácter comunicacional, la cibernética podía
reclamar el nacimiento de una nueva ciencia exclusiva de su momento histórico y anunciar la llegada
de una nueva era, la era “de la forma y la estructura sincrónica de la información.” (Bowker, 1993, p.
111).
Bajo el lema de la llegada de una nueva era, los cibernéticos también se apropiaron de discursos
ajenos a la ciencia. Un ejemplo de lo anterior es como una serie de problemas que habían estado
limitados al ámbito religioso pasaron a formar parte del programa cibernético. En God and Goldem
inc, por ejemplo, Wiener examina una serie de situaciones “que han sido discutidas en libros
religiosos y tienen un aspecto religioso pero que plantean una cercana analogía con otras situaciones
que pertenecen a la ciencia, y en particular a la nueva ciencia de la cibernética” (Citado en Bowker,
1993, p.113). De manera similar, en el plano político Wiener se encargó igualmente de denunciar los
peligros del avance tecnológico, entre ellos la automatización irresponsable y la amenaza nuclear, y
de postular a la cibernética como la ciencia capaz de prevenirlos (Bowker, 1993, p. 113).
Es decir, los cibernéticos argumentaron la llegada de una nueva era desde una perspectiva doble:
coyunturalmente, en lo concerniente al desarrollo tecnológico, e idealmente, al proponer grandes
ideas sobre la humanidad.
El segundo aspecto analizado por Bowker, el desarrollo de un nuevo lenguaje capaz de reflejar sus
principales preocupaciones, aparece ligado a la redefinición de los límites ontológicos tradicionales
que se desprendían de sus postulados.
22
Tal desafío de los modelos de pensamiento en vigor debía
ser replanteado de alguna manera. Para Bowker el lenguaje de la cibernética, es decir, el discurso de
la información, del control, de los mecanismos de retroalimentaron, de la entropía, etc., cumplía esa
función (Bowker, 1993, p. 114).
22
Dos ejemplos claros son la puesta en duda de la distinción entre los organismos y las máquinas (cuando se propone que
el comportamiento dirigido a fines es una función de los procesos de retroalimentación, y por lo tanto no se limita a seres
con intenciones), y la redefinición de la subjetividad humana que resulta de situar al hombre en un circuito
comunicacional; “el antiguo dualismo entre mente y cuerpo se rompía históricamente y filosóficamente, los aspectos de la
mente podían…encontrarse distribuidos…por doquier en la naturaleza” (Bowker, 1993, p.114).
2. Revisión de la literatura
53
Este nuevo lenguaje habría sido lo que garantizó un intercambio de ideas entre diferentes disciplinas.
Definido como un “efecto de triangulación”, este sistema de intercambio permitía que un trabajo
científico que exhibía un argumento extravagante pudiera ganar legitimidad al soportarse en otro
campo, mecanismo que a su vez daba legitimidad al otro campo para argumentar sus tesis. De esta
manera los conceptos y herramientas de un campo podían ser extraídos para ser introducidos en
otro, mientras el lenguaje de la cibernética hacía “el trabajo de suavizar la discontinuidad.” (Bowker,
1993, p. 116)
El desarrollo de este lenguaje ofrecía nuevas formas de interacción cognitiva entre diversas
disciplinas. Por ejemplo, de esta manera las ideas biológicas podían ser introducidas en la física y
viceversa. A partir de este mecanismo, el lenguaje de la cibernética se usó para definir los fenómenos
estudiados en prácticamente todos los campos del conocimiento, con lo cual quedaba garantizado el
éxito del objetivo cibernético de reorganizar la producción científica.
Bowker concluye que gracias a lo anterior, la cibernética pudo “operar…como disciplina primaria,
dirigiendo a las otras en su búsqueda de la verdad, o como una disciplina que proveía las
herramientas analíticas indispensables para el desarrollo y progreso de las demás. Tanto al nivel
superestructural como al nivel infraestructural, la retórica sostenía que la cibernética era ineludible si
uno quería hacer ciencia significativa y eficiente.” (Bowker, 1993, p. 122)
2.4.4 La informatización del saber
Desde una perspectiva diferente, Jean François Lyotard presenta en La condición postmoderna un
análisis según el cual el cambio de estatus del saber, su informatización, se explica como el resultado
de un profundo cambio epistemológico; cambio que es concebido como el producto de la
emergencia de las tecnologías de la información, pero también de los nuevos modelos de
pensamiento resultantes de los discursos de la información.
Lyotard pone un énfasis particular en el hecho que el saber ha cambiado como resultado de la
implementación de las tecnologías de la información. El autor plantea que “[c]on la hegemonía de la
informática se ha impuesto una cierta lógica, y por lo tanto, todo un conjunto de prescripciones que
afectan todos los enunciados que pueden ser aceptados como saber.” (Lyotard, 2005, p.26) De este
modo, agrega Lyotard, desde su informatización el conocimiento no puede “entrar en nuestros
canales y volverse operativo si antes no ha quedado traducido en cantidades de información.”
(Lyotard, 2005, p. 26) Para Lyotard la nueva condición del saber es su expresión en términos
informacionales; lo cual implica que tanto los productores de saber como sus usuarios deben ser
54
capaces de comprender o tener los medios para traducir códigos. En otras palabras, Lyotard plantea
que tras su informatización, la producción de conocimiento ha quedado sujeta “a la condición de
traducibilidad de resultados en un lenguaje-maquina.” (Lyotard, 2005, p. 26).
Aunque se plantea que la expansión de la informática es el factor crucial que transforma el saber, en
el discurso de Lyotard estos cambios no pueden separarse de la emergencia de un nuevo modelo de
pensamiento. Así, el autor recuerda que a partir de los años cuarenta del siglo XX, prácticamente
todas las ciencias y técnicas que se consideraban de vanguardia se apoyaron en el lenguaje, en la
noción de información desarrollada por científicos como Shannon y Weaver, por ejemplo (Lyotard,
2005, pp. 25-26). Entonces el cambio en el estatus del conocimiento del que habla Lyotard no pasa
solamente por la traducción del conocimiento en lenguajes computacionales, sino por la redefinición
de sus explicaciones en función de las ideas que se desprenden de los discursos de la información.
Lyotard señala la teoría de la comunicación de Shannon, y no propiamente la cibernética, como la
disciplina que dirigió los cambios epistemológicos descritos en La condición posmoderna. Para
Lyotard la cibernética es un ejemplo, entre otros, de la informatización del saber. Sin embargo, el
autor reconoce la enorme influencia de la cibernética en la definición de nuevos modelos de
pensamiento particularmente influyentes; especialmente en lo que concierne a la concepción de la
sociedad como un todo funcional que se desprende de la teoría de sistemas.
De hecho es interesante observar que la concepción de la sociedad que se deriva del pensamiento
sistémico es fundamental para la reflexión propuesta por Lyotard. Por lo tanto su trabajo mismo
resulta siendo un ejemplo de la transferencia del modelo informacional hacia las ciencias sociales.
23
En este punto cabe recordar que para varios autores el paradigma cibernético inaugura precisamente
lo que Lyotard ha llamado sociedad postmoderna. Philippe Breton argumenta en el prefacio del libro
de Céline Lafontaine, L’empire cybernétique, que varios autores (Ellul, Habermas, Lefebvre, Roszak,
Sfez) han tenido la intuición que toda crítica de la modernidad pasaba por “el reconocimiento del rol
fundador jugado por la cibernética”. En este sentido, para Breton, el concepto de postmodernidad
“no es otra cosa, como puede verse en Jean-François Lyotard, que el paradigma cibernético
renombrado al gusto de la época.” (Lafontaine, 2004, p. 7)
Entonces, a pesar de las diferencias de enfoque respecto a los trabajos de Bowker (quien atribuye
directamente a la cibernética la posición de disciplina primaria para el desarrollo de la ciencia
contemporanea) y de Breton (quien considera la visión cibernética de la sociedad de la comunicación
23
Lo mismo puede afirmarse de su teoría de los juegos de lenguaje, teoría que se apoya en una noción que las ciencias
sociales heredaron de la cibernética: la cuestión del vínculo social como un problema comunicacional.
2. Revisión de la literatura
55
cómo ideología dominante en el mundo contemporáneo), el trabajo de Lyotard refuerza algunos de
los puntos señalados por los dos anteriores.
Aunque Lyotard atribuye una gran importancia al desarrollo de las tecnologías de la información para
la informatización del saber y de la sociedad, su análisis es enfático al señalar que este proceso ha
tenido lugar en referencia a un cambio de paradigma en el campo del conocimiento que se
desprende de los discursos de la información, marco dentro del cual se su trabajo mismo se inscribe.
Céline Lafontaine presenta una mirada a cómo este cambio de paradigma ha sido una influencia
mayor, tanto en el conjunto de las ciencias sociales contemporáneas, como en otros campos del
conocimiento científico.
2.4.5 El imperio cibernético
Para la autora de L’empire cybernétique, la cibernética inauguró un nuevo paradigma de
conocimiento que definió las bases para repensar al ser humano y su lugar en el mundo (Lafontaine,
2004, p. 16). Este nuevo modelo, que excluye la separación humano-máquina, y que por consiguiente
pone en duda la interioridad subjetiva como propiedad única del ser humano, habría implicado una
redefinición de las concepciones humanistas heredadas de la modernidad, fuertemente basadas en
la idea del sujeto liberal (Lafontaine, 2004, p. 17). Según Lafontaine, el nuevo paradigma promovió
nuevas representaciones en las que una visión tecno-científica del mundo se oponía al modelo
político-institucional moderno (Lafontaine, 2004, p. 18).
Mediante la exploración de estas ideas, y por medio de un análisis sintético de las ideas vehiculadas
por diversas teorías filosóficas y modelos científicos contemporáneos, Lafontaine señala el impacto
de los cambios ontológicos y epistemológicos propios del paradigma informacional en algunos de los
modelos más influyentes en el pensamiento occidental, desde el final de la segunda guerra mundial
hasta la actualidad.
De esta manera la autora analiza el impacto de la cibernética en campos como el estructuralismo, el
pensamiento sistémico y las corrientes de pensamiento posmodernas. Así, Lafontaine considera la
influencia de los discursos de la información en el trabajo de pensadores y filósofos tan importantes
para el pensamiento contemporáneo como Claude Levi Strauss, Gregory Bateson, Jacques Lacan,
Jacques Derrida, Gilles Deleuze y Felix Guattari, entre otros.
Desde la misma perspectiva, el análisis también señala el influjo cibernético en otros discursos que
incluyen el post-humanismo, el ecologismo global y los discursos sobre el ciberespacio, al igual que la
56
filiación del pensamiento cibernético con múltiples disciplinas científicas que incluyen, además de la
informática, las biotecnologías, las ciencias cognitivas, la investigación en el campo de la inteligencia
artificial y la biología molecular, entre otras.
El trabajo de Lafontaine es de particular interés porque muestra cómo prácticamente todas las áreas
del conocimiento han sido permeados por las ideas de Wiener y sus colegas. En consecuencia,
algunos de los modelos más influyentes en el conjunto de la producción científica contemporánea
aparecen como herederos de la visión informacional.
Figura 1. Este diagrama presenta de manera sintética el origen cibernético y el vínculo entre diferentes campos del
conocimiento que incluyen el pensamiento de sistemas, las teorías de la auto-organización y diversos desarrollos en las
ciencias sociales y las ciencias de la computación. Fuente: http://commons.wikimedia.org/wiki/File%3AComplexity-
map_Castellani.jpg.
En el marco de la reflexión aquí planteada este análisis es particularmente relevante, porque muestra
cómo una serie de ideas y conceptos, que han sido importados del mundo de la ciencia a las
elaboraciones de la arquitectura computacional, hacen parte de aquellos campos en los cuales la
cibernética operó como disciplina primaria, o que encontraron en ella sus principales herramientas
teóricas. Entre estas disciplinas se cuentan el pensamiento sistémico, la ciencia de la complejidad y
varias ramas de la biología, cuyos vínculos con la cibernética, al igual que su influencia en la
emergencia de nuevos paradigmas en la arquitectura computacional, serán analizados a lo largo de la
disertación.
***
2. Revisión de la literatura
57
Visto el importante número de campos de investigación, modelos de pensamiento y teorías
filosóficas en los que es posible rastrear el influjo de las ideas de la cibernética, cualquier
aproximación sintética parece insuficiente para entender el enorme impacto del pensamiento
informacional en el panorama intelectual y socio-cultural occidental de los últimos sesenta años. No
obstante, los trabajos aquí presentados dan una idea global de cómo se ha generalizado el
paradigma cibernético y de qué manera este se ha convertido en un referente ineludible para
comprender el desarrollo de múltiples teorías científicas y construcciones culturales, que han
ejercido notable influencia en las prácticas contemporáneas de arquitectura.
En este punto surge la pregunta sobre cuál ha sido el impacto de la cibernética en las elaboraciones
de la arquitectura. Como se verá continuación, desde mediados del siglo veinte, diversas prácticas
arquitectónicas han introducido en sus elaboraciones conceptos heredados directamente de la
cibernética, o bien, han desarrollado modelos informados por campos del conocimiento
estrechamente vinculados con el paradigma informacional. Este vínculo ha sido particularmente
evidente en las prácticas de arquitectura computacional.
2.5 El paradigma cibernético en la arquitectura
Un aspecto compartido por muchas prácticas de la arquitectura contemporánea ha sido construir sus
discursos en referencia a campos del conocimiento externos a la profesión. Este aspecto aparece
claramente en el interés que en algún momento despertaron en la arquitectura modelos como la
lingüística, el post-estructuralismo, el psicoanálisis y la teoría crítica. Esta tendencia continúa siendo
muy influyente en las prácticas de diseño computacional. Crucialmente, estas prácticas, junto al
empleo de la computación, han integrado en sus elaboraciones diferentes referencias a una variedad
de campos del conocimiento cercanos al paradigma informacional.
No obstante, el interés de la arquitectura por los discursos de la información se remonta a varias
décadas, de modo que la exploración de conceptos cibernéticos en la arquitectura no ha estado
ligada exclusivamente a la introducción de la informática en la profesión.
En este sentido el trabajo de investigación de Christopher Hight es de particular interés. El autor
ofrece un interesante análisis de cómo diversas corrientes de pensamiento cercanas al pensamiento
informacional han influido en las elaboraciones de la arquitectura desde mediados del siglo XX. En el
trabajo de Hight sobresale la cuestión de cómo muchos contenidos propios de la teoría cibernética
informaron la arquitectura antes de que en la profesión se adoptaran las primeras herramientas
informáticas.
58
Es revelador que Hight haya llamado Architectural Principles in the age of Cybernetics, un trabajo que
trata en gran medida sobre la formulación de teorías de la arquitectura previas a la aparición del
primer sistema de diseño asistido por ordenador. En este sentido la tendencia actual de la
arquitectura computacional a cimentarse en narrativas informacionales, y a construir sus imaginarios
en referencia al espíritu tecno-científico de la época, no sería otra cosa que la continuación de una
tendencia de la que uno de los primeros ejemplos sería el célebre Modulor de Le Corbusier (Hight,
2008).
Antoine Picon también ha señalado que desde la posguerra se hicieron varios intentos por
transportar los conceptos de la cibernética al ejercicio del diseño y de la arquitectura. Entre los más
relevantes se pueden citar los experimentos del cibernético británico Gordon Pask, basados en la
idea que los procesos de intercambio de información daban origen a patrones observables en la
naturaleza, el trabajo gráfico de Gyorgy Kepes, que acompañó el artículo de Norbert Wiener Pure
Patterns in a Natural World, o la propuesta de Richard Neutra, informada por la cibernética, de hacer
una alianza entre el diseño y la neurofisiología (Picon, 2010, p. 33).
Para Picon otros ejemplos del influjo cibernético en la arquitectura se encontrarían en las
exploraciones sobre la modularidad y repetición en la arquitectura corporativa de Eero Saarenin, en
los proyectos de edificios interactivos del arquitecto británico Cedric Price, y en las propuestas de
eliminar la distinción entre arquitectura y ciudad del movimiento megaestructural – entre las cuales
jugaron un papel importante las propuestas de Yona Friedman y del grupo Archigram (Picon, 2010,
pp. 34-38).
Picon también sugiere que una de las principales herencias de la cultura cibernética en la
arquitectura se encuentra en las aproximaciones del modernismo tardío, basadas en la manipulación
de patrones geométricos, de sistemas de signos y símbolos y en investigaciones tipológicas. En este
sentido se pueden nombrar, además del trabajo teórico de Rudolf Wittkower y el ya mencionado
modulor de Le Corbusier, las investigaciones de Colin Rowe, Antony Vidler y Peter Eisenman. La
mención de este último es particularmente relevante pues su trabajo recuerda que la perspectiva
computacional en la arquitectura fue desde sus inicios inseparable del giro semiótico propio de la
modernidad tardía y de las manifestaciones tempranas del postmodernismo (Picon, 2010, pp. 45-46).
De hecho el trabajo de Eisenman se inscribe dentro de una tradición de investigación en la
arquitectura, de la cual hacen parte las exploraciones de otros arquitectos pioneros de la
introducción de la computación en la profesión. Entre ellos se encuentran figuras como Leslie Martin
y Christopher Alexander, vinculados, como Eisenman, al centro de investigación LUBFS (Center for
Land Use and Built Form Studies) en la universidad de Cambridge.
2. Revisión de la literatura
59
Crucialmente, las exploraciones llevadas a cabo en LUBFS, que pueden considerarse como el germen
del desarrollo de la perspectiva computacional en la arquitectura, se llevaron a cabo bajo la
influencia de modelos como el estructuralismo, la lingüística, el análisis de sistemas y la investigación
de operaciones, cuatro campos del conocimiento con vínculos cercanos con el pensamiento
cibernético (Rocha, 2004, Keller, 2006).
En este sentido es posible argumentar que, desde sus inicios, la investigación de los usos de la
informática en la profesión ha estado permeada por los discursos de la información. El tipo de
experiencias llevadas a cabo en LUBFS permite reforzar esta idea. Entre las investigaciones
desarrolladas en este contexto ocuparon un lugar importante las aproximaciones basadas en la
manipulación de lenguajes formales, y en la definición de la forma arquitectónica como un proceso
resultante de métodos cuantitativos y científicos. Otras investigaciones iniciadas en Cambridge,
igualmente cimentadas en la introducción de modelos provenientes de la ciencia, y que igualmente
mantienen vínculos cercanos al pensamiento cibernético (entre ellos la teoría de grafos, el algebra
booleana y las gramáticas formales), incluyen el trabajo de arquitectos como Philip Steadman, Lionel
March y William Mitchell.
Desde entonces la exploración de la computación en la arquitectura ha venido junto con la
redefinición de los problemas tradicionales de la profesión, en referencia a una serie de ideas
heredadas de campos cercanos al pensamiento cibernético.
Los imaginarios propios de la producción digital de la arquitectura se han construido de la mano de
nociones heredadas de campos como la teoría de sistemas, la lógica de la conectividad, la teoría de la
complejidad, la biología molecular y evolutiva, el ecologismo global y las teorías feministas del
cyborg, entre otros campos del conocimiento que se han desarrollado bajo el influjo del paradigma
cibernético.
***
Lo anterior muestra que la influencia de la cultura informática en la arquitectura se ha reflejado en
una importante redefinición de los problemas de la profesión, y que, en el caso de la perspectiva
computacional, estas transformaciones no han estado motivadas exclusivamente por la introducción
de las herramientas informáticas. Por el contrario, lo que se observa es que las investigaciones
asociadas al empleo de la computación en la arquitectura han sido inseparables del desarrollo de
nuevas visiones de los problemas disciplinares y de nuevas metodologías de diseño, que se han
elaborado en referencia a una serie de ideas teorizadas por los cibernéticos.
60
En este sentido, las producciones de la arquitectura computacional aparecen como un ejemplo del
tipo de relación entre lo cultural y lo tecnológico propuesto por Hayles, Haraway y Latour, quienes
conciben la relación entre cultura y tecnología como un proceso de retroalimentación permanente
entre artefactos e ideas. Aquí aparecen ligadas tres cuestiones que se desprenden de la revisión de la
literatura seleccionada, y que se encuentran en el centro del argumento de la disertación:
La primera es la concepción de la cibernética como un paradigma de pensamiento indisociable del
desarrollo de la informática y de la consolidación de nuevos modelos en diversos campos del
conocimiento. La segunda, que se desprende de la primera, es la consideración de la arquitectura
computacional como un campo que se ha construido en referencia a una serie de ideas y modelos
que se desprenden en gran parte del paradigma cibernético. La tercera, consecuencia de las dos
anteriores, es la convicción que para comprender las producciones digitales de la arquitectura, debe
considerarse la influencia no solamente de la pragmática, sino de la ontología y la epistemología
informacional. Es decir, el análisis requiere entender no solamente los aspectos técnicos de la
introducción de la informática en la arquitectura, sino cómo el desarrollo y evolución de la
arquitectura computacional se ha inscrito dentro del complejo intercambio de factores, ideológicos y
técnicos, que han definido la cultura informática.
2.6 Narrativas cibernéticas
Es en referencia a lo anterior que se usa el concepto de narrativa en el título de la disertación. De
acuerdo con las ideas sobre la naturaleza del conocimiento científico expuestas por la sociología de la
ciencia contemporánea, se comprende que las teorías científicas no son el espejo de la realidad, sino
que, como todas las teorías, son modelos construidos, o inventados, por sujetos humanos; modelos
de los fenómenos estudiados, y, especialmente, modelos para intervenir en el mundo. Desde esta
perspectiva, la producción de teorías científicas no es diferente de la construcción de historias
(Keller, 1992, pp. 74-75)
Si, desde esta perspectiva, la producción del conocimiento es equivalente a la construcción de
historias que nos permiten dar sentido al mundo en el que vivimos, dentro del contexto planteado lo
que el título sugiere es que las producciones de la arquitectura computacional aquí analizadas
aparecen como un esfuerzo por dar significado, desde la profesión, a algunas de las ideas
dominantes (plasmadas en el modelo cibernético) sobre las cuales se ha construido el conocimiento
en el mundo contemporáneo.
2. Revisión de la literatura
61
A lo largo de la disertación se hará referencia a este conjunto de ideas mediante una serie de
conceptos intercambiables como pensamiento cibernético, discursos de la información, paradigma
informacional, que evocan la visión del mundo teorizada por los cibernéticos.
62
3. El performance de la arquitectura
63
3. El performance de la arquitectura
3.1 Resumen
Uno de los aspectos relevantes del desarrollo de la perspectiva computacional en la arquitectura ha
sido la exploración de nuevas metodologías de concepción, tecnológicamente mediadas, que han
venido de la mano con una profunda redefinición de los problemas tradicionales de la disciplina y del
estatus de sus objetos. Desde las primeras tentativas de integración de la informática en el diseño
arquitectónico, este cambio en las elaboraciones de la profesión se ha construido en referencia a los
discursos, aun de gran actualidad, sobre el performance de la arquitectura.
Definida por sus promotores como Performance Design, esta aproximación al diseño, además de
explorar las posibles aplicaciones de las tecnologías de la información en la arquitectura, planteó una
concepción de los problemas disciplinares informada por campos de investigación, cercanos a los
discursos de la información, como el análisis de sistemas y la investigación de operaciones. Este
vínculo indica cómo, desde sus orígenes, la perspectiva computacional en la arquitectura ha sido
concebida en referencia paradigma de pensamiento promovido por la cibernética.
Desde entonces los objetos arquitectónicos han sido concebidos como fenómenos dinámicos, como
sistemas integrados con el contexto y como el resultado de la interacción compleja de múltiples
factores y fuerzas. Como se verá a lo largo de la disertación, estas han sido las visiones de los
problemas de diseño que han dirigido una buena parte de la producción arquitectónica
computacional, un campo en el que la idea que la forma sigue al performance, ha remplazado las
concepciones funcionalistas heredadas de la arquitectura moderna.
El objetivo de este capítulo es señalar cómo esta nueva ontología de los problemas de la arquitectura
se desprende en gran medida del paradigma de las ideas vehiculadas por la teoría cibernética. Con
este fin, en la primera parte del capítulo se propone una breve descripción del significado y los
orígenes del concepto de performance en la arquitectura, y de su vínculo con el pensamiento
cibernético. Posteriormente se propone una mirada a cómo diversas prácticas de diseño
computacional, que han explorado la construcción de los problemas de la arquitectura alrededor de
la cuestión del performance, se han desarrollado en referencia directa a las nociones centrales del
pensamiento de Wiener y sus colegas.
64
Este análisis, que señala el vínculo entre el pensamiento cibernético y el cambio de paradigma en la
profesión, propio de la perspectiva computacional, es fundamental para comprender muchas de las
ideas e imaginarios que han guiado la producción digital de la arquitectura, desde sus orígenes hasta
la actualidad. Como se verá en los siguientes capítulos, los modelos dominantes en el campo de la
arquitectura computacional, han coincidido en explorar la misma ontología del objeto arquitectónico
promovida por los discursos del performance; crucialmente, sus elaboraciones han sido informadas
por una serie campos del conocimiento que mantienen un estrecho vínculo con el paradigma
cibernético.
3.2 El performance de la arquitectura
Sus diferentes usos en el campo de la arquitectura, al igual que las diferentes acepciones del
término, hacen de difícil traducción la palabra performance. De acuerdo con las definiciones
propuestas por The Oxford American Dictionary of Current English, por performance puede
entenderse: 1. el acto de llevar a cabo una acción; 2. la representación de una obra (teatral, musical,
etc); 3. el logro de un objetivo bajo condiciones de prueba; o 4. las capacidades de una máquina. En
las prácticas contemporáneas de arquitectura el concepto de performance se ha asociado de diversas
maneras con todos estos posibles significados. Por lo tanto, a falta de una traducción satisfactoria en
castellano que dé cuenta de esta variedad de definiciones, resulta más sencillo adoptar la palabra en
inglés y hacer uso de ciertos neologismos, como performativo, performatividad o performalismo,
para calificar los objetos y prácticas de la arquitectura que han introducido en sus elaboraciones
principios de acción, evento, comportamiento y rendimiento.
De manera general, los modelos de diseño arquitectónico basados en la noción de performance han
sido definidos como una serie de procesos operativos relacionados con consideraciones
programáticas y sobre el contexto. Rivka Oxman considera estas aproximaciones como “procesos de
formación dirigidos por un comportamiento deseado.” (Oxman, 2006, p. 257) La anterior definición
recuerda que la noción de performance en la arquitectura se ha derivado de la premisa según la cual
la relación entre forma y función en los edificios está íntimamente determinada por el contexto.
Según Yehuda E. Kalay, la cuestión del performance se ha orientado a establecer “la conveniencia del
comportamiento a partir de la confluencia de la forma, la función y el contexto”, es decir, la
capacidad de un diseño para responder a ciertas necesidades en un contexto particular (Kalay, 1999,
p. 400).
3. El performance de la arquitectura
65
El origen de este tipo de elaboraciones coincidió con el desarrollo de procesos informáticos de
evaluación de los proyectos arquitectónicos, procesos que en sus inicios fueron aplicados
especialmente a la estimación de costos y al desarrollo de análisis estructurales. Recientemente la
noción de performance se ha asociado con la utilización de herramientas digitales, de diseño y
análisis, para apoyar métodos de concepción de la forma arquitectónica orientados hacia la
integración, dentro de los procesos de diseño, de diversos aspectos del programa y del contexto.
Tales aspectos incluyen las condiciones ambientales, las características materiales y costos del
proyecto, así como perspectivas sociales, culturales, tecnológicas y ecológicas. En este sentido,
Oxman amplía su definición del concepto de diseño performativo en la arquitectura computacional.
Desde esta perspectiva los modelos performativos son considerados como aproximaciones
compuestas de diseño que consisten en “una técnica de formación…o un proceso generativo cuyas
variantes son definidas paramétricamente.” (Oxman, 2006, p. 257)
Aunque las definiciones propuestas por Oxman y Kalay resultan útiles para comprender la
pragmática del diseño que se ha asociado con el concepto de performance, estas definiciones no
dicen mucho sobre las ideas que subyacen a este tipo de prácticas. El interés del análisis aquí
propuesto es establecer de qué manera la cuestión del performance de la arquitectura se ha
construido no solamente a través del desarrollo de nuevas metodologías de diseño,
tecnológicamente mediadas, sino mediante una reelaboración de los problemas tradicionales de la
arquitectura en relación directa con los discursos de la información.
Como se mencionó arriba, la noción de performance se ha asociado con el desarrollo de métodos de
concepción caracterizados por la integración en los procesos de diseño de diferentes aspectos, que
hasta hace poco eran considerados externos al objeto arquitectónico. Desde el final de los años
sesenta, la noción de performance en la arquitectura se ha asociado con la exploración de escenarios
de proyectación orientados hacia la optimización de los problemas de diseño, el diseño ecológico, el
estudio del comportamiento material de la arquitectura, al igual que hacia la concepción de los
edificios como sistemas dinámicos y como instrumentos de mediación entre lo social y lo
atmosférico. Crucialmente, estas son algunas de las preocupaciones centrales que han dirigido la
producción computacional de la arquitectura (Figs. 1-3).
66
De manera general, en los discursos del performance
de la arquitectura el concepto de performance ha
hecho referencia simultáneamente a uno o varios
aspectos relacionados con el comportamiento y/o el
rendimiento óptimo de los objetos arquitectónicos. En
consecuencia, las aproximaciones performativas se
han polarizado entre las prácticas que han explorado
la cuestión del performance principalmente en
relación con los aspectos funcionales y técnicos de la
arquitectura, y, en segundo lugar, aquellas que se han
orientado hacia la exploración del performance en
términos de lo sensorial y lo simbólico.
24
3.3 El rendimiento y el comportamiento de
la arquitectura
En el caso de las practicas orientadas hacia lo funcional
y los aspectos técnicos, más cercanas a la definición
del performance como rendimiento, se trata de
aproximaciones al diseño que apuntan hacia el logro
de objetivos bajo condiciones determinadas. En el
segundo caso, donde la noción de performance se ha
asociado más directamente con la idea de
comportamiento, se ha apuntado hacia una
concepción de la arquitectura como evento, como
agente mediador entre lo ambiental, lo cultural y lo
social.
24
No obstante, esta distinción es en muchos casos borrosa. De hecho diversas prácticas han definido procesos que mezclan
los objetivos y los métodos de una y otra aproximación. El mejor ejemplo de lo anterior lo ofrecen ciertas prácticas
contemporáneas de diseño ecológico, donde, alrededor de la cuestión del performance, conceptos como optimización y
rendimiento se han convertido en sinónimos de sensibilidad ambiental y se han puesto al servicio de una ética (y una
estética) ecológica, por encima de consideraciones funcionales y económicas.
Figura 1
El proyecto Web Membrela, de Ocean Design
Research Association, por ejemplo, es un
caso paradigmático de una investigación
orientada a concebir la forma arquitectónica
como el resultado del análisis del
comportamiento material del objeto
diseñado. Fuente: http://www.ocean-
designresearch.net
Figura 2
En el proyecto de Foster & Partners para la
sede de la administración de Londres el
diseño final fue en gran parte el resultado
del análisis del impacto del asoleamiento
global de las fachadas del edificio. Fuente:
Performative Architecture, 2006. B. Kolarevic
& A.M. Malkawi (Eds).
3. El performance de la arquitectura
67
En el caso de las aproximaciones basadas en el
rendimiento, el concepto de performance se ha
asociado especialmente con problemas de
optimización y eficiencia.
Esta visión del performance
de la arquitectura ya aparece en las primeras
exploraciones, donde los problemas de la profesión
eran pensados en referencia al campo de la
investigación de operaciones, es decir, como una
cuestión de resolución de problemas, de modo que se
consideraba que la respuesta ideal a un problema era
la más rápida, rentable y eficaz (Progresive
Architecture, 1967).
En concordancia con esta manera de concebir los
problemas de diseño, los modelos performativos se
han definido bajo el objetivo de responder de manera
eficiente a problemas que incluyen el comportamiento
estructural, el correcto desempeño de las funciones y
sistemas de acondicionamiento y el consumo de
energía de los edificios, al igual que los aspectos
relacionados con las características térmicas, lumínicas
y acústicas de los espacios construidos (Fig.4).
Desde esta perspectiva los objetos arquitectónicos se
han concebido como un conjunto interconectado de
sistemas, subsistemas y elementos que responden a
una serie de funciones estrechamente ligadas con el
contexto, y cuyo comportamiento óptimo puede
predecirse de manera científica, en gran medida
gracias al empleo de las herramientas informáticas.
Aquí aparece un aspecto fundamental de los modelos
performativos; se trata de su exploración, de la mano
con las herramientas digitales, del carácter complejo y
sistémico de la arquitectura. Uno de los ejemplos
paradigmáticos de esta aproximación es el modelo
Figura 3
En el proyecto Dynaform, diseñado por
Bernhard Franken y ABB Arquitetos, un
campo de fuerza, que representa
digitalmente las tensiones presentes en el
sitio, fue empleado como aspecto generador
de la forma. Fuente: www.franken-
architekten.de
Figura 4
En un modelo de análisis de indicadores de
performance propuesto por Godfried
Augenbroe, entre los aspectos analizados
aparecen factores energéticos, lumínicos,
térmicos y de mantenimiento. En este
sentido el proyecto es pensado como un
conjunto de funciones garantizadas por una
serie de sistemas compuestos por diversos
elementos que actúan juntos. Fuente:
Performative Architecture, 2006. B. Kolarevic
& A.M. Malkawi (Eds).B. Kolarevic & A.M.
Malkawi (Eds).
68
descrito por Christopher Alexander en su influyente
ensayo Notes on the Synthesis of the Form, donde la idea
de performance se relaciona con una concepción del
diseño como el correcto balance entre las condiciones del
proyecto y el contexto (Alexander, 1986).
Desde la consideración de la arquitectura como un
problema de sistemas, los modelos performativos han
consistido en una exploración del diseño como un
problema de relaciones variadas y dinámicas. Se trata de
una visión que obliga a pensar los edificios como parte de
una totalidad que incluye, además del objeto
arquitectónico, los múltiples factores, externos al edificio,
que definen una realidad arquitectónica (Fig. 5).
En este sentido – y en gran medida gracias a las
posibilidades abiertas por las tecnologías digitales – se ha
consolidado una pragmática del diseño basada en una
concepción de la arquitectura como el resultado de un
proceso dinámico que refleja las relaciones complejas
entre el objeto arquitectónico y las fuerzas presentes en el
contexto.
Esta ontología del diseño es compartida por una variedad
de prácticas en las que, alrededor de la concepción del
performance como una cuestión de acción y/o
comportamiento, los problemas de la arquitectura han
sido pensados como el resultado de la retroalimentación
entre múltiples factores. En consecuencia los objetos
arquitectónicos han sido considerados, cómo lo plantea
Sylvia Lavin, como artefactos dinámicos que actúan en el
mundo y sobre los cuales el mundo actúa (Lavin, 2012).
Desde esta perspectiva se han desarrollado diversas
investigaciones sobre lo cinético y lo generativo, sobre el
nuevo rol acordado en la arquitectura contemporánea a la
ornamentación y sobre la percepción y la cognición de los
Figura 5
Este diagrama, que acompaña el artículo de
Frederick Kiesler “On Correalism and
Biotechnique”, expresa claramente la
concepción de los espacios habitables como
un todo que incluye la interacción continua
entre diferentes aspectos de la realidad,
entre ellos los habitantes y el medio
ambiente. Fuente: Architectural Record,
1939, Vol. 86 (3)
Figura 6
Un ejemplo paradigmático de la aspiración
de crear objetos arquitectónicos capaces de
exhibir algún tipo de comportamiento es el
proyecto experimental Hyposurface,
desarrollado por dECOi Architects. Fuente:
www.hyposurface.com
3. El performance de la arquitectura
69
espacios
25
(Figs. 6, 7, 8). En la misma línea se han
investigado diversas metodologías de diseño basadas en
procesos, al igual que exploraciones de la arquitectura como
un evento, como una manifestación que incluye aspectos de
teatralidad, afecto y experimentación.
26
Visiblemente, las investigaciones alrededor de la cuestión
del performance, entendida en las elaboraciones de la
arquitectura como el comportamiento y/o el rendimiento
optimo de los objetos arquitectónicos, ha dado lugar a
tantas y tan diversas exploraciones, que la mayoría de las
prácticas de arquitectura computacional pueden definirse
de una u otra manera en relación con esta noción. Más
importante aún, la concepción de los problemas de la
arquitectura que subyace a estas visiones es, en términos
del estatus acordado al objeto arquitectónico, en esencia la
misma. Se trata de una visión de la arquitectura, basada en
una lógica relacional, que implica pensar la profunda
25
Al respecto, Patrick Schumacher establece una diferencia fundamental entre los procesos de diseño basados en la
inclusión de la percepción de los usuarios y los procesos basados en principios de organización que operan
independientemente del rol de los habitantes. Dice Schumacher que “[l]a organización se basa en la constitución o
distribución de posiciones para los elementos espaciales y sus patrones de conexión. La articulación se basa en la
constitución o distribución de identidades, similitudes y diferencias morfológicas entre los elementos arquitectónicos a ser
organizados. La organización es instituida mediante los medios físicos de distanciar, separar y conectar a través de vistas
y/o canales de circulación. Estos mecanismos físicos pueden (en teoría) operar independientemente de toda percepción y
comprensión, y puede por lo tanto, en principio, ser eficaz sin ningún esfuerzo de articulación. Sin embargo, la restricción a
una simple organización sin articulación, sin facilitar la navegación activa de los participantes, limita severamente el nivel de
complejidad posible en el patrón de comunicación social así enmarcado. La articulación presupone cognición. Esta incluye la
percepción y comprensión de los participantes y por lo tanto facilita la orientación activa de los participantes. La distinción
de organización versus articulación está basada entonces en la diferencia entre lidiar con cuerpos pasivos versus la toma en
cuenta de agentes cognitivos activos. Los dos registros se relacionan así: la articulación se basa en y revela la organización.
Esta hace la organización de las funciones aparente. De esta manera esta eleva la organización hacia el orden.”
(Schumacher, 2012)
26
Por ejemplo, Antoine Picon sugiere que es en relación con una idea de retroalimentación entre sujeto y objeto que debe
entenderse el tema del afecto en las prácticas de diseño actuales. Se trata de un proceso de definición del espacio habitable
a través de dinámicas de formación que conciernen simultáneamente al habitante y al edificio (Picon, 2010). En términos
similares Silvya Lavin se ha referido a la exploración del performance de la arquitectura como una manera de pensar los
edificios como artefactos dinámicos que actúan en el mundo y sobre los cuales el mundo actúa (Lavin, 2012).
Figura 7
El empleo de sistemas generativos ha estado
en el centro de la exploración del diseño
como un proceso dinámico que incluye
múltiples factores. En este caso Brandon
Williams (Estudio Rocker) presenta un
sistema basado en autómatas celulares que
investiga una visión del diseño como un
sistema basado en reglas. Fuente: AD, 2006,
Vol. 76 (4).
70
integración del objeto arquitectónico con el contexto.
Esta manera de concebir el objeto arquitectónico mantiene un
vínculo directo con el modo de pensar los fenómenos en el
mundo que se desprende del modelo de causalidad
cibernético. El origen de este cambio de paradigma en la
profesión puede buscarse en las primeras experiencias
basadas en la introducción de las herramientas informáticas en
el diseño. Una mirada al modelo definido como Performance
Design, presentado en 1967 por Progressive Architecture,
permite entender cómo, desde sus inicios, la idea de
performance en la arquitectura se ha relacionado con una
concepción cibernética de sus problemas.
3.4 El origen cibernético del Performance Design
En 1967 la revista Progressive Architecture publicó un volumen
especial sobre una nueva aproximación al diseño definida
como Performance Design. La aproximación descrita en
Progressive Architecture – que, como recuerda William
Braham, se inspiró en el trabajo desarrollado en la década de
1960 por arquitectos pioneros de la perspectiva computacional
como Christopher Alexander, Peter McCleary y Lionel March
(Braham, 2013)– se presentó como un conjunto de prácticas
que pretendían explorar las posibilidades, para la arquitectura
y la planeación urbana, que surgían del potencial ofrecido por
disciplinas, cercanas al pensamiento cibernético, como el
análisis de sistemas y la investigación de operaciones. Los
editores de Progressive Architecture se referían
concretamente al conjunto de técnicas “que permiten a
alguien ver una serie de objetos aislados, o una serie de
eventos independientes, como interconectados y mutuamente
dependientes.” (Progressive Architecture, 1967, p. 106)
Figura 8
Herzog y De Meuron se cuentan entre los
arquitectos que han desarrollado un
lenguaje formal en el que se reintroduce el
ornamento como un aspecto fundamental
en la definición del objeto arquitectónico. Su
proyecto para el estadio de Beijing es un
ejemplo paradigmático de esta tendencia.
Fuente: Digital Culture in Architecture, 2010.
A. Picon.
3. El performance de la arquitectura
71
A partir de la concepción de los objetos arquitectónicos y urbanos como sistemas de elementos
interrelacionados, el modelo propuesto aspiraba a estudiar sistemáticamente los edificios y la ciudad
como todos integrados.
27
De esta manera se pretendía extraer de este tipo de análisis conclusiones y
previsiones aplicables a problemas de diseño cada vez más complejos (Progressive Architecture,
1967, p. 106).
El influjo del pensamiento cibernético en los discursos del Performance Design aparece, de manera
patente, a través de dos aspectos clave que se encuentran en el centro de sus elaboraciones: la
concepción de los objetos arquitectónicos y urbanos como sistemas y la propuesta de analizarlos en
términos de su comportamiento o rendimiento, es decir, de su performance. Tal influencia era
evidente para los promotores de esta aproximación al diseño, para quienes sus modelos de
referencia hacían parte de la base tecnológica y científica que se desarrolló como parte de los
“esfuerzos de guerra” en Estados Unidos y Gran Bretaña durante la segunda guerra mundial; periodo
de intensa investigación científica durante el cual “la revolución cibernética ganó su ímpetu.”
(Progressive Architecture, 1967, p. 107).
En efecto, los conceptos de sistema y performance, tal como son empleados en los discursos del
Performance Design, tienen un estrecho vínculo con el pensamiento cibernético.
La noción de sistema, como es definida por autores como Herbert Simon o Ludwing von Bertalanffy,
está directamente relacionada con la visión comunicacional de los fenómenos promovida por la
cibernética. En correspondencia con esta visión, en este contexto un sistema se define como una
compleja red de elementos interconectados e inmersos en un incesante proceso de intercambio; de
esta manera los fenómenos dejan de ser pensados como entes individuales para ser considerados
como conjuntos de elementos y/o como parte constitutiva, en un nivel superior, de conjuntos más
amplios que los contienen.
28
27
Es interesante constatar que en las prácticas descritas en el artículo inaugural de Progressive Architecture ya se
encuentran varios aspectos que recientemente han ganado gran interés, en parte gracias al enorme desarrollo y expansión
en las últimas dos décadas de las aplicaciones informáticas en la arquitectura. Tanto el funcionalismo de las aproximaciones
performativas (optimización, eficiencia y sostenibilidad), como su exploración de los aspectos sensibles de la arquitectura
(estéticos, ambientales y psicológicos) son dos de las características principales de las prácticas actuales que ya aparecían
como una preocupación fundamental en el método descrito en el artículo de Progressive Architecture – descrito como “un
método científico de análisis de requerimientos funcionales” que incluía “necesidades psicológicas y estéticas.” (Citado en
Braham, 2005, p.57).
28
Este es el tema del siguiente capítulo, donde se presenta un análisis de la relación del pensamiento cibernético y la teoría
de sistemas, y el influjo de ésta última en la producción computacional de la arquitectura.
72
En cuanto al concepto de performance, este aparece en la
teoría cibernética como el corolario de la concepción de
de los fenómenos en el mundo como sistemas
interconectados. En el pensamiento de Wiener la idea de
performance se relaciona con la comprensión del
comportamiento de un sistema (sea este un organismo o
una máquina) en términos de las relaciones, del
intercambio de información, que tal sistema establece con
su medio.
29
De acuerdo con la visión del autor de
Cibernética, la estructura de un organismo, o de un
servomecanismo, es considerada como un indicador del
performance que puede esperarse de éste (Citado en
Sprecher, 2012, p.27). Lo anterior está estrechamente
vinculado con la transformación en la comprensión de los
fenómenos en el mundo promovida por la cibernética,
cuyo modelo de causalidad obliga a abandonar la
concepción de los fenómenos como entidades
individuales, para ser concebidos como componentes de
un vasto sistema de elementos interconectados.
De cierto modo las definiciones de estos dos conceptos
(sistema y performance), sintetizan los objetivos del
Performance Design. Resumiendo, se trata de una
aproximación al diseño según la cual un edificio, o un
problema de diseño urbano, puede plantearse como el
resultado de las relaciones que se establecen entre los
múltiples factores que participan en su definición. En base
a esta lógica relacional, la medida de éxito de un problema
de diseño es el performance del edificio, su rendimiento o
su comportamiento; es decir, la correcta, o incorrecta,
adecuación entre los diferentes elementos del sistema
29
Aquí cabe recordar que en el pensamiento cibernético tanto los organismos como las máquinas son concebidos como
sistemas retroalimentados, o sea, como sistemas regulados por flujos de información.
Figura 9
Este diagrama representa la definición de
un problema de diseño arquitectónico como
una búsqueda de la organización óptima de
sus elementos. El modelo funciona mediante
la atribución de puntajes a diferentes
configuraciones, generadas
automáticamente por un programa
computacional, en función de la relación
entre los componentes del sistema. De este
modo se aspira a encontrar la solución cuyo
comportamiento es el más adecuado
respecto a los requerimientos del problema.
Fuente: Progressive Architecture, 1967, Vol.
48.
3. El performance de la arquitectura
73
diseñado (Fig. 9). Lo anterior se ha asociado con la convicción que un problema de diseño puede
resolverse científicamente, gracias al empleo de herramientas cuantitativas de análisis, mediante la
observación del performance global del sistema.
En el modelo propuesto en Progressive Architecture la idea de performance se refiere a una función
de utilidad propia de la lógica de los “métodos de optimización” expuesta por Herbert Simon en The
Sciences of the Artificial. Para Simon un artefacto debe ser pensado como el punto de encuentro (la
interfaz) entre el ambiente interno del artefacto (su organización) y un ambiente externo dado (el
contexto en el que el artefacto opera). Partiendo de esta definición de un objeto diseñado (lo
artificial), la lógica de optimización es descrita así: “El «ambiente interno» del problema de diseño es
representado por un conjunto dado de alternativas de acción. Las alternativas pueden ser dadas in
extenso: más comúnmente estas son especificadas en términos de variables de control que tienen
dominios definidos. El «ambiente externo» es representado por un conjunto de parámetros que
pueden ser conocidos con certeza o sólo en términos de una distribución de probabilidad. Los
objetivos para la adaptación del ambiente interno al ambiente externo son definidos por una función
de utilidad…posiblemente complementada por un número de restricciones… El problema de
optimización es encontrar un conjunto admisible de valores de las variables de control…que
maximicen la función de utilidad para los valores dados de los parámetros ambientales.” (Simon,
1996, p. 116)
En concordancia con lo expuesto por Simon, el modelo propuesto por Progressive Architecture es
descrito como un proceso que comprende cuatro fases: Primero, la definición del problema.
Segundo, la derivación de los requerimientos del sistema; esto significa que todos los aspectos del
sistema deben ser cuantificados, si es posible. Para los aspectos del sistema de los cuales no existen
datos deben llevarse a cabo experimentos que permitan prever su comportamiento. La tercera fase
constituye la separación del sistema en sus partes, sus componentes identificables y subsistemas. El
propósito de esta fase es entender la influencia de las características de las partes y su efecto en el
performance global del sistema; lo anterior partiendo de la premisa que la manipulación de las
características de los subsistemas permite llegar a un estado optimo, es decir, al mejor sistema global
posible. La cuarta fase constituye la implementación de las conclusiones extraídas. Esto incluye una
fase de retroalimentación, donde el performance real es comparado con el performance planeado,
que permite corregir las fallas del sistema y poner a prueba el efecto de las correcciones realizadas
respecto al plan original (Progressive Architecture, 1967, pp. 108-110).
Esta manera de abordar los problemas de diseño se ha relacionado con dos ideas, centrales en el
influyente trabajo de Herbert Simon, que son inherentes al desarrollo de la informática: por una
74
parte, la certeza de que una gran cantidad de cosas pueden cuantificarse para ser analizadas
sistemáticamente y, por la otra, que las tecnologías de la información constituyen la herramienta
ideal para resolver cualquier tipo de problema, especialmente aquellos que por su complejidad
incluyen un vasto número de variables. Consecuentemente, desde sus inicios, los modelos basados
en el performance de la arquitectura se construyeron como una aproximación al diseño enfocada en
el procesamiento de datos y variables, correspondientes a los múltiples factores que participan en la
definición de un proyecto.
La posibilidad de resolver un problema de diseño mediante el análisis y manipulación de datos
correspondientes a los factores que participan en su definición, se ha relacionado con una cuestión
central en el pensamiento cibernético. Se trata de la premisa que sugiere que todos los fenómenos
en el mundo pueden ser concebidos como procesos de intercambio de información, y que, por lo
tanto, la información es el aspecto regulador que permite a un sistema alcanzar un estado de
equilibrio, un correcto balance con su entorno.
Esta idea ha estado latente en el pensamiento arquitectónico desde las primeras investigaciones
sobre el uso de la informática en el diseño. Así, en el campo de la arquitectura computacional, el
empleo de la información, como herramienta de control y medida del performance de un problema
de diseño, ha venido de la mano con la construcción de los objetos arquitectónicos como fenómenos
comunicacionales y como sistemas de retroalimentación.
30
Teniendo en cuenta la cercanía que ha existido entre la definición de nuevas metodologías de diseño
basadas en el empleo de la informática y la redefinición de los problemas de la arquitectura en
referencia al paradigma informacional, el modelo propuesto por los promotores del Performance
Design constituye el ejemplo paradigmático de cómo las elaboraciones de la arquitectura
computacional han sido, en gran medida, el resultado de la retroalimentación entre los modos de
producción y las ideas que han dado forma a la cultura informática (y de cómo en este proceso han
jugado un papel crucial las narrativas puestas en circulación por la cibernética).
En el caso de los modelos performativos, la idea de interpretar los problemas de la arquitectura
como un problema de integración del objeto arquitectónico con el ambiente ha sido inseparable de
los modos de operación que permite la informática: manipulación de lenguajes formales,
cuantificación, expresión matemática, etc. No obstante, aunque este ha sido un aspecto central de
30
Como se verá en el siguiente capítulo, a través de la exploración de estas ideas también se ha abierto el camino al
desarrollo de nuevos imaginarios de inspiración biológica en la arquitectura, imaginarios desde los cuales los objetos
arquitectónicos, en correspondencia con las representaciones cibernéticas de los sistemas de retroalimentación, han sido
pensados como artefactos con características similares a las de los organismos y los servomecanismos.
3. El performance de la arquitectura
75
los métodos empleados, los modelos e imaginarios desarrollados en este campo expresan ante todo
una manera de entender el mundo, una ontología informacional teorizada por la cibernética. En este
sentido se entiende que la pragmática computacional en la arquitectura ha sido inseparable de una
manera de concebir los fenómenos en el mundo como sistemas comunicacionales.
Lo anterior aparece de manera evidente en diversas producciones de la arquitectura computacional
en las que, alrededor de las visiones del objeto arquitectónico que se desprenden de los discursos del
performance, los objetos arquitectónicos han sido redefinidos en referencia al énfasis cibernético
sobre la naturaleza comunicativa de los organismos y las máquinas, y otros aspectos centrales de las
teorías del control y la comunicación.
3.5 Analogías cibernéticas en el diseño performativo
Junto a la definición de la arquitectura como un problema de sistemas y del diseño como un proceso
basado en la manipulación de información, se han desarrollado una variedad de aproximaciones al
diseño, donde la cuestión del performance se ha asociado con diferentes categorizaciones
cibernéticas de los objetos arquitectónicos y de los procesos de concepción.
Entre estas referencias cibernéticas, alrededor de las cuales se han construido las visiones de una
arquitectura performativa, se destacan especialmente las alusiones al modelo de causalidad circular,
y al rol de la información como fuerza reguladora en los procesos de diseño. De esta manera la
arquitectura se ha concebido como una especie de mecanismo homeostático, como un sistema que
se mantiene en estado de equilibrio gracias a una lógica de retroalimentación permanente entre el
objeto arquitectónico y su contexto. En consecuencia, la labor del arquitecto ha sido concebida
como la manipulación de datos y variables, de la información que permite lograr una correcta
adecuación entre la forma arquitectónica y las condiciones de un contexto dado.
Por ejemplo, en la descripción de una investigación “que emplea los modelos computacionales del
performance”, Christopher Hight describe su propuesta como un sistema que opera “dentro de flujos
informacionales como demonios de Maxwell, revirtiendo momentáneamente las probabilidades
entrópicas.” (Hight, 2012, pp. 39-41) Esta descripción, que remite directamente a los escritos de
Norbert Wiener, hace clara referencia a tres conceptos centrales en el pensamiento cibernético:
información, organización y entropía. Hight emplea la definición cibernética de la información como
entropía negativa – es decir, como aspecto regulador que permite a un sistema abierto mantener un
estado estable, en oposición a la tendencia natural del universo hacia el desorden – para caracterizar
una aproximación cibernética a un problema de diseño. Para Hight un método de diseño basado en
76
una lógica de retroalimentación, entre el análisis de la información sobre un problema dado y el
conjunto de posibles soluciones, garantiza una capacidad de respuesta que permite el correcto
equilibrio entre el proyecto y su contexto. Esta es en gran medida la misma pragmática del diseño
promovida en el artículo inaugural de Progressive Architecture.
Yasha J. Grobman también ha usado el concepto cibernético de entropía para caracterizar el rol de la
información como aspecto regulador en el diseño. En un artículo donde el autor discute diferentes
dimensiones del concepto de performance en la arquitectura, se plantea que el aumento de la
información sobre la forma arquitectónica conlleva a una mejor conciencia espacial por parte de los
arquitectos. En palabras de Grobman lo anterior se reflejaría en el decrecimiento de la entropía de
los problemas arquitectónicos. En este sentido el papel de la información, como aspecto
fundamental en la producción de la forma arquitectónica, aparece vinculado con una nueva
dimensión en la profesión; se trata de una dimensión que es construida mediante jerarquías de
información que resultan, gracias al uso de la informática, del aumento de la cantidad de
información incorporada en la forma y en el diseño arquitectónico (Grobman, 2012, pp. 9-12).
La idea de incorporar la información como fuerza generativa y reguladora en la definición de la forma
arquitectónica ha constituido el centro de las exploraciones de algunas de las prácticas
contemporáneas de diseño digital más influyentes, prácticas en las que la idea de performance ha
estado asociada una idea de operatividad de los procesos de diseño.
3. El performance de la arquitectura
77
Lars Spuybroek, por ejemplo, al describir una metodología
de diseño que él define como “técnicas intensivas de
diseño”, hace referencia a varias nociones centrales del
pensamiento cibernético, que se desprenden de la
concepción del diseño como un proceso informacional. Al
respecto dice Spuybroek que “para mapear fuerzas
entrantes y salientes…dentro de un [sistema] continuo,
una técnica en red y auto-organizada es requerida. Una
técnica intensiva significa informar un sistema virtual, el
cual, durante el procesamiento de tal información, toma
forma en una estructura real que es un registro de
información.” (Spuybroek, 2005, p. 167) Así, en la
metodología de diseño propuesta por el director de NOX,
la arquitectura es concebida como el producto de un
proceso comunicacional con inputs y outputs, como el
producto de un intercambio de información que se
materializa en la forma arquitectónica.
Esta es más o menos la misma fórmula que aparece en el
popular ensayo de Greg Lynn, Animate Form. De manera
similar a lo expuesto por Spuybroek, en la aproximación
propuesta por Lynn, el diseño es concebido como un
proceso en el que la forma arquitectónica aparece como la
actualización de las fuerzas que participan en su
definición. De esta manera Lynn concibe el diseño como
“un espacio activo y abstracto que dirige la forma dentro
de una corriente de fuerzas que pueden ser registradas
como información en la configuración de la forma.” (Lynn,
1999)
Ideas muy similares también han sido exploradas en el
trabajo diagramático de estudios como UN Studio y
Foreign Office Architects. Ben van Berkel y Caroline Bos,
por ejemplo, se han referido al trabajo con diagramas
como una técnica que permite pensar el diseño como una
Tanto en el caso de los procesos descritos
por Spuybroeck y Lynn como en los modelos
diagramáticos elaborados por UN Studio y
FOA, las metodologías desarrolladas se
basan en la idea que la forma arquitectónica
es el resultado de de la información
recolectada durante el proceso de diseño.
Figura 10
Entre las exploraciones de NOX sobre el
diseño como un proceso computacional, se
destacan investigaciones donde el
comportamiento de la materia es concebido
como un sistema de computación analógica.
De esta manera los aspectos materiales del
objeto arquitectónico son introducidos en los
procesos de diseño como uno de los aspectos
(inputs) que dirigen la producción de la
forma arquitectónica (output). Fuente:
www.nox-art-architecture.com
Figura 11
Captura de un instante de un flujo de
partículas realizado mediante una técnica de
animación para la generación de la forma de
una estructura concebida a partir de arcos
resistentes a la fuerza de gravedad. Proyecto
para el Port Authority Gateway. Greg Lynn –
Form. Fuente: Animate Form, 1999. G. Lynn.
78
práctica digitalmente mediada por flujos de información:
“la técnica diagramática provee un punto de apoyo en los
rápidos flujos de información mediada.” (Van Berkel &
Bos, 2010, p. 224) Alejandro Zaera Polo por su parte se
refiere al trabajo con técnicas paramétricas como una
manera de introducir en el proceso de diseño datos
correspondientes a una serie de aspectos que sin las
herramientas informáticas eran de difícil manipulación.
Para el director de FOA “la visualización y operación con
datos numéricos…permite introducir otros parámetros
en las herramientas arquitectónicas (tales como tiempo,
luz, temperatura, peso, etc.) que no éramos capaces de
visualizar previamente.” (Zera Polo, 2010, p. 237)
En los ejemplos anteriores una misma idea subyace a las
metodologías de diseño exploradas, a saber, que la forma
arquitectónica resultante de un proceso de diseño es el
registro de la información recolectada durante el
proceso. (Figs. 10-13)
De la mano con el rol acordado a la información como
fuerza reguladora dentro de los procesos de diseño, la
noción de causalidad circular ha sido otra de las nociones
cibernéticas constantemente referidas en las prácticas de
diseño computacional. Esta idea que ha estado en el
centro de las investigaciones de la arquitectura
computacional desde sus orígenes, ha sido especialmente
explorada en referencia a la dinámica que se establece
entre el objeto arquitectónico y el contexto. Por ejemplo,
el influyente modelo de análisis de la forma propuesto
por Christopher Alexander, parte de considerar la forma
arquitectónica como el resultado de la adecuación (o la
inadecuación) de los requerimientos de un diseño a las
condiciones de un contexto dado. Para Alexander
“cuando hablamos de diseño, el objeto real de discusión
Figura 12
Mediante este diagrama se representa el
impacto en la variación de una forma
diseñada de los resultados de un análisis
solar. En este proyecto de FOA se emplea la
información resultante del análisis como
input para el diseño de la fachada del
proyecto “Dubai Iconic Towers”. Fuente: The
Diagrams of Architecture, 2010. M. Garcia.
Figura 13
En el trabajo diagramático de UN Studio, los
datos recolectados son mapeados en
representaciones que funcionan a la vez
como herramientas analíticas y como
esquemas formales que sirven de apoyo en
los procesos de concepción. Fuente: The
Diagrams of Architecture, 2010. M. Garcia.
no es sólo la forma sino el conjunto que comprende la
forma y su contexto.”
(Alexander, 1986, p. 22)
Recientemente Ali Rahim ha descrito la cuestión del
performance
de un problema de diseño en términos
similares. Para Rahim
la cuestión del
arquitectura se ref
iere al cambio material, organizacional y
cultural que resulta de un proceso emergente que incluye
circuitos de retroalimentación entre los diversos actores
que p
articipan en la definición de una realidad
arquitectónica (Fig. 14).
Desde esta perspectiva la
de la forma en la arquitectura es considerada como un
proceso determinado por la reacción a estímulos externos
que transforman una situación de habitación. Esto implica
“la retroalimentación entre un sujeto y el medio ambiente
y entre la arquit
ectura y su medio.”
La caracterización del
performance
adecuación, o de la retroalimentación, entre el objeto
arquitectónico y el contexto,
dentro del p
aradigma cibernético no solamente la
naturaleza del objeto arquitectónico, sino todos los
aspectos que participan en un proceso de diseño. Por
ejemplo, al describir una metodología de diseño basada
el performance,
Craig Shwitter recalca la importanci
entender y desarrollar meticulosamente los datos de
entrada (inputs
) y el rol crítico de la retroalimentación en el
diseño,
para obtener y dar forma a datos de salida (
desconocidos. Esta referencia al modelo cibernético de
causalidad se extie
nde también a los actores que participan
en la definición de un diseño. Así, para Shwitter
de diseño performativo
también requiere la integración del
equipo de diseño y circuitos de retroacción bien
comunicados entre los miembros del grupo
2005, p. 114).
3. El performance de la arquitectura
79
no es sólo la forma sino el conjunto que comprende la
(Alexander, 1986, p. 22)
.
Recientemente Ali Rahim ha descrito la cuestión del
de un problema de diseño en términos
la cuestión del
performance de la
iere al cambio material, organizacional y
cultural que resulta de un proceso emergente que incluye
circuitos de retroalimentación entre los diversos actores
articipan en la definición de una realidad
Desde esta perspectiva la
creación
de la forma en la arquitectura es considerada como un
proceso determinado por la reacción a estímulos externos
que transforman una situación de habitación. Esto implica
“la retroalimentación entre un sujeto y el medio ambiente
ectura y su medio.”
(Rahim, 2005, p. 179)
performance
como la medida de la
adecuación, o de la retroalimentación, entre el objeto
ha conducido a concebir
aradigma cibernético no solamente la
naturaleza del objeto arquitectónico, sino todos los
aspectos que participan en un proceso de diseño. Por
ejemplo, al describir una metodología de diseño basada
en
Craig Shwitter recalca la importanci
a de
entender y desarrollar meticulosamente los datos de
) y el rol crítico de la retroalimentación en el
para obtener y dar forma a datos de salida (
outputs)
desconocidos. Esta referencia al modelo cibernético de
nde también a los actores que participan
en la definición de un diseño. Así, para Shwitter
, un ejercicio
también requiere la integración del
equipo de diseño y circuitos de retroacción bien
comunicados entre los miembros del grupo
(Schwitter,
Figura 14
Ali Rahim ha explorado una lógica de
c
oncepción donde la forma arquitectónica es
concebida como un sistema reactivo, como
una formación catalítica, que responde a
estímulos y que se encuentra inmerso en un
contexto que incluye tanto los aspectos
materiales de la arquitectura, como el medio
amb
iente y los habitantes. Fuente: Catalytic
Formations: Architecture and Digital Design,
2006. A. Rahim.
3. El performance de la arquitectura
Ali Rahim ha explorado una lógica de
oncepción donde la forma arquitectónica es
concebida como un sistema reactivo, como
una formación catalítica, que responde a
estímulos y que se encuentra inmerso en un
contexto que incluye tanto los aspectos
materiales de la arquitectura, como el medio
iente y los habitantes. Fuente: Catalytic
Formations: Architecture and Digital Design,
80
Lo que señala Shwitter es sumamente relevante, pues su argumento permite entender hasta qué
punto la visión cibernética se encuentra enraizada en las prácticas de diseño basadas en la
exploración de la arquitectura como un fenómeno performativo. Claramente, en este campo, la
referencia a los discursos de la información no constituye simplemente una estrategia retórica para
justificar una metodología de diseño basada en el empleo de herramientas informáticas. La
permanente alusión a las nociones cibernéticas en la caracterización de los problemas de diseño,
refleja la profunda influencia de los modos de pensamiento propios del paradigma informacional en
la arquitectura. Se trata de una visión en la que los fenómenos (físicos, biológicos y sociales) se
consideran afiliados entre sí y en un estado de flujo constante. De este modo no es solamente el
objeto arquitectónico el que es pensado dentro del marco conceptual propuesto por el pensamiento
cibernético, sino todos los procesos y actores que intervienen en la definición del espacio; es decir,
es la realidad misma la que es concebida como un fenómeno cibernético.
3.6 Conclusión
En las páginas precedentes se ha tratado de mostrar cómo, a partir los inicios de la perspectiva
computacional en la arquitectura, se han desarrollado aproximaciones al diseño basadas en la
exploración simultánea de los modelos de pensamiento y las técnicas que han dado forma a la
cultura informática. Como se ha visto, una de las ideas dominantes en este terreno ha sido la
consideración de los objetos arquitectónicos como artefactos performativos, es decir, como sistemas
dinámicos, capaces de responder a las condiciones variables que los definen. Se trata de una visión
de los problemas de la profesión que, desde las primeras experiencias que exploraron el empleo de
la informática en el diseño, ha estado profundamente influenciada por el paradigma cibernético.
Mediante la exploración de esta idea se ha señalado cómo la concepción del diseño promovida por
los discursos del performance, que en principio se asoció especialmente con campos como el análisis
de sistemas y la investigación de operaciones – y que comprendió una concepción del trabajo del
diseñador como una cuestión de resolución de problemas –, ha dado paso a la concepción de la
arquitectura como un sistema dinámico, altamente integrado con el contexto, y regido por flujos de
información. O sea, como un fenómeno definido por las mismas categorías desde las cuales el
pensamiento cibernético planteó un cambio de paradigma en la ciencia contemporánea.
***
3. El performance de la arquitectura
81
Esta es la ontología del diseño que se encuentra en el centro de algunas de las prácticas más
influyentes en el campo del diseño computacional; prácticas que, crucialmente, se han apoyado en
conceptos importados de diferentes modelos de pensamiento herederos de los discursos de la
información.
Este es el problema central del análisis planteado en los siguientes capítulos, que constituyen una
exploración sobre cómo tres construcciones dominantes de la arquitectura computacional (la
conceptualización de los problemas de diseño como sistemas, como mecanismos genéticos y como
fenómenos complejos), han explorado, en referencia a la teoría de sistemas, a las visiones
informacionales de la biología y a la teoría de la complejidad respectivamente, diferentes
elaboraciones cibernéticas de los problemas de diseño, que comparten la misma visión de los
problemas de la arquitectura promovida por los discursos del performance.
82
4. Sistemas
83
4. Sistemas
4.1 Resumen
En las últimas décadas una lógica de sistemas ha sido explorada en el estudio de una variedad de
problemas en diversos campos, dando paso a una visión del mundo desde la cual una serie de
fenómenos físicos, biológicos y sociales han sido pensados como modos de organización
interrelacionados y cuya esencia debe buscarse no solamente en su estructura interna, sino en
sus relaciones con el medio ambiente. Esta visión de los fenómenos aparece claramente expuesta
en el esquema teórico propuesto por Ludwing Von Bertalanffy en su Teoría General de Sistemas,
modelo que tiene su origen en una visión de los organismos biológicos inspirada en los discursos
de la comunicación.
En el campo del diseño computacional, la concepción de la arquitectura en referencia a este
modelo ha sido inseparable de su construcción alrededor de las ideas centrales del pensamiento
cibernético. Como se vio en el capítulo precedente, en relación con el caracter cibernético de los
discursos del performance, uno de los aspectos centrales que se encuentran en el origen de este
tipo de aproximación en la arquitectura fue su definición como una práctica subsidiaria del
análisis de sistemas. Desde entonces la visión sistémica ha estado en el centro de las
exploraciones de la arquitectura computacional.
El objetivo de este capítulo es señalar en qué sentido la comprensión de los problemas
disciplinares de la arquitectura desde una pesrspectiva sistémica, ha definido la agenda de
investigación de algunas de las prácticas dominantes de arquitectura computacional.
Con este objetivo, en la primera parte del capítulo se exponen los principales postulados de la
teoría de sistemas, desde la perspectiva de su relación con la teoría cibernética. A partir de este
trabajo de síntesis, en la segunda parte del capítulo se propone un análisis que pretende mostrar
cómo la visión sistémica subyace a la construcción, propia de las prácticas de diseño
computacional, de los hechos arquitectónicos como totalidades, como el resultado de la
integración compleja entre los diversos aspectos que definen una situación de habitación y como
mecanismos auto-regulados.
84
A partir de este análisis se propone una mirada a cómo la concepción sistémica de los problemas
de diseño mantiene un estrecho vínculo con la construcción de analogías biológicas en las
elaboraciones de la arquitectura digital. Se trata de un aspecto propio de muchas prácticas de
diseño computacional, que permite pensar cómo el influjo del paradigma cibernético en las
producciones digitales de la arquitectura se percibe a través de otros campos del conocimiento
científico, cercanos a los discursos de la información, que han informado sus producciones – esta
es la base del análisis planteado en los capítulos 5 y 6.
4.2 La teoría general de sistemas
Según Ludwing Von Bertalanffy, la teoría general de sistemas (TGS) nació como una crítica a la
aproximación mecanicista de la ciencia moderna, aproximación que, según el autor, negaba lo
esencial del fenómeno de la vida.
31
En oposición a este modelo, la visión desarrollada por
Bertalanffy se planteó como una concepción orgánica de las ciencias biológicas que ponía en
evidencia “la importancia del organismo considerado como un todo o un sistema”, y cuyo objetivo
principal era el “descubrimiento de principios de organización a todos los niveles.” (Bertalanffy,
1993, p. 10)
De acuerdo con la definición propuesta en la TGS, un sistema es considerado como un complejo
de elementos en interacción, donde los elementos p están ligados por relaciones R y donde el
comportamiento de p varía en función del tipo de relación, de manera que el comportamiento de
p en R difiere del comportamiento de p en R’ (Bertalanffy, 1993, p. 53).
De este modelo, inicialmente pensado para el estudio de los organismos, se desprendió una
manera de concebir una variedad de fenómenos como totalidades organizadas, que se ha
extendido hacia diversos campos del conocimiento. En el origen de esta definición del concepto
de sistema se encuentra una representación del funcionamiento del organismo que se desprende
de algunos de los conceptos centrales del pensamiento cibernético y de la teoría de la
31
Al respecto Maria Rovaletti recuerda que la segunda regla del método de Descartes exige fragmentar los problemas
en elementos simples y separados, y que ese ha sido el paradigma conceptual de la ciencia moderna. “Se trata de
resolver y reducir los fenómenos complejos a partes y procesos elementales para luego reunirlos, sea experimental o
sea conceptualmente, a fin de hacer «objetivo» el fenómeno.” (Rovaletti, 1989, p. 45) Rovaletti también explica que la
metodología clásica newtoniana consistía igualmente en concebir los objetos de investigación como un conjunto de
elementos aislados a partir del cual se pretendían deducir propiedades generales sin tomar en cuenta la relación entre
las partes (Rovaletti, 1989, p. 45).
4. Sistemas
85
información de Shannon. Definido como un sistema abierto, el organismo es concebido por
Bertalanffy como un mecanismo auto-regulado que mantiene un estado estable gracias a su
capacidad de organizar su estructura a partir de sus interacciones con el ambiente.
A partir de las esta consideración sobre el funcionamiento del organismo, Bertalanffy propuso su
teoría general de sistemas, que fue concebida como un modelo para estudiar desde la misma
perspectiva las ciencias biológicas, las ciencias del comportamiento y la sociología. Su propuesta
consistía en generalizar el modelo desarrollado para el estudio de los organismos, partiendo del
supuesto que existía una similitud estructural, o isomorfismo, entre diferentes problemas de
investigación. Esto implicaba concebir los fenómenos físicos y sociales desde la misma perspectiva
empleada para la conceptualización del organismo como un sistema abierto. En consecuencia,
para el estudio de cualquier fenómeno considerado como un sistema, era primordial tener en
cuenta problemas de orden, de organización, de totalidad y de teleología (Bertalanffy, 1993, p.
12).
4.3 Organización, totalidad y teleología
El concepto de organización, aunque definido vagamente por Bertalanffy, es esencial en la
concepción sistémica. El filósofo de los sistemas Erwin Laszlo deja entrever su rol primordial en su
introducción a la Teoría general de sistemas de Bertalanffy. Laszlo sostiene que la visión
organicista desarrollada por Bertalanffy “se refiere al organismo vivo como «sistema organizado»
y define la tarea fundamental de la biología como el descubrimiento de leyes aplicables a los
sistemas biológicos en sus diversos niveles de organización.” (Bertalanffy, 1993, p. ix)
La concepción de los seres vivos como sistemas organizados es central en el modelo del sistema
abierto. En este modelo los organismos se conciben como sistemas inmersos en un proceso de
intercambio permanente con el ambiente. Esta consideración nace de pensar los procesos
orgánicos como sistemas de producción de entropía negativa, es decir, como sistemas que
evolucionan hacia estados más elevados de orden. En consecuencia, el concepto de organización
en la TGS se relaciona con los mecanismos que permiten a los sistemas mantener estados
estables, o incluso alcanzar niveles de orden más complejos, por medio de su interacción
permanente con el exterior (Bertalanffy, 1993, pp. 38-45).
La definición de los sistemas como fenómenos creadores de un orden resultante de la profunda
conexión entre el sistema y un medio ambiente dado, es inseparable de la noción de totalidad en
la TGS. La definición de sistema implica pensar los fenómenos del mundo como complejos de
86
elementos en interacción mutua, como un todo integrado que “no puede aprehenderse por el
estudio de sus partes tomadas aisladamente.” (Bertalanffy, 1993, p. 35). Rovaletti explica que a
esta idea subyace el enfoque holístico de “la relacionabilidad en el contexto.” Se trata de una
manera de concebir los fenómenos que implica que “toda abstracción de su contexto relacional
se considera un error derivado de la causalidad explicativa lineal”. (Rovaletti, 1989, p. 46)
En relación con esta visión holística, la teoría de sistemas se interesa particularmente en
fenómenos biológicos como la autorregulación homeostática y la auto-organización. Esto implica
tomar en consideración nociones de teleología y directividad, que antiguamente, a falta de
explicaciones para este tipo de fenómenos, quedaban relegadas al campo de lo metafísico y lo
sobrenatural. En este sentido la TGS insiste sobre el hecho que el comportamiento teleológico no
se sitúa por fuera de los límites de las ciencias naturales y que éste tipo de explicación no
corresponde a una concepción antropomórfica de sus problemas de investigación. Se trata, por el
contrario, de tipos de comportamiento que se pueden definir en términos científicos y para los
cuales es posible precisar las condiciones y los mecanismos (Bertalanffy, 1993, pp. 43-45).
Fue en referencia a estos tres conceptos (organización, totalidad y teleología) que se estableció el
programa de la Society for general systems research, colectivo que reunió junto a Bertalanffy, en
el seno del Centro de Estudios Avanzados de las Ciencias del Comportamiento (Palo Alto), a figuras
como el economista Kenneth E. Boulding, el bio-matemático Anatol Rapoport y el fisiólogo Ralph
Gerard. Los objetivos del grupo
32
se centraron en dos preocupaciones fundamentales: los
isomorfismos entre diferentes problemas de investigación y la unidad de la ciencia.
4.4 los isomorfismos y la unidad de la ciencia
Respecto a la cuestión del isomorfismo, o la similitud estructural entre diferentes modelos,
Bertalanffy afirma que, en oposición a una ciencia que tiende a especializarse cada vez más,
“diversos problemas y conceptos similares se han desarrollado de manera independiente en
campos que difieren sensiblemente.” (Bertalanffy, 1993, p. 29) Para Bertalanffy la existencia de
estos paralelismos, al igual que el impacto del progreso tecnológico en las ciencias biológicas y
32
Bertalanffy resume en cuatro puntos los objetivos de la Society for general systems research: “1º buscar objetivos,
leyes y modelos de la misma forma en diversos campos y ayudar al intercambio de un campo a otro; 2º promover el
desarrollo de modelos teóricos adecuados en las ramas que no los tienen; 3º minimizar la multiplicación de esfuerzos
teóricos en diversos campos; 4º promover la unidad de la ciencia mejorando las relaciones entre los especialistas.”
(Bertalanffy, 1993, p. 14)
4. Sistemas
87
sociales, señalaba la necesidad de extender sus esquemas conceptuales para tener en cuenta
sistemas de leyes en campos donde la aplicación de la física no era suficiente o posible.
Desde esta perspectiva la TGS sugiere la existencia de modelos, principios y leyes que podrían ser
aplicados a diversos sistemas, independientemente de su naturaleza. Lo anterior resultaba
suficiente para legitimar la propuesta de una teoría general cuyo objetivo era formular principios
válidos para una variedad de fenómenos y extraer las consecuencias. En palabras de Bertalanffy,
el objetivo de tal aproximación era buscar “los principios que se emplean para los sistemas en
general sin preocuparse de su naturaleza, física, biológica o sociológica.” (Bertalanffy, 1993, p. 32)
De esta manera la teoría de sistemas aspiraba a proveer modelos transferibles y utilizables por
diversas disciplinas, partiendo de la premisa que diferentes fenómenos podían considerarse como
complejos organizados.
Aquí aparece la cuestión de la unidad de la ciencia. Para Bertalanffy la idea de fundar una teoría
interdisciplinar implicaba fundar una concepción unitaria del mundo basada en “los isomorfismos
que existen entre los diversos campos.” (Bertalanffy, 1993, p. 47) Esta visión aspiraba a mejorar el
intercambio entre diversas disciplinas y a reducir la multiplicación innecesaria de modelos en los
diferentes campos disciplinares. Por esta misma vía debía llegarse a una concepción de la ciencia,
opuesta a la del reduccionismo, que el autor llama “perspectivista”. No se trataba entonces de
reducir los problemas de investigación en la biología, las ciencias del comportamiento y la
sociología al nivel de las construcciones físicas, sino de encontrar esquemas y leyes al interior de
cada uno de estos niveles.
En la actualidad no cabe duda que las aspiraciones de interdisciplinariedad y universalidad del
modelo han sido ampliamente satisfechas. La TGS no solamente se ha constituido en un modelo
ampliamente explorado en campos como la economía, la ecología, la informática, la lingüística, la
teoría de organizaciones, la psicología, la ingeniería y la arquitectura, sino que el modelo ha dado
paso a la consolidación de una visión del mundo, a una ontología de los sistemas que ha jugado
un papel relevante en el pensamiento contemporáneo.
De hecho, junto con el pensamiento cibernético, la teoría de sistemas ha sido crucial para la
consolidación de una visión del mundo como un conjunto complejo de sistemas dinámicos, auto-
regulados e integrados. Tal es la visión que aparece representada en las ideas de pensadores
como Erwin Laszlo y Edgar Morin.
33
33
Laszlo es el más visible de los filósofos de los sistemas. Morin ha sido uno de los principales divulgadores del
pensamiento cibernético en Europa.
88
4.5 El pensamiento sistémico
En el trabajo de Morin aparece el mismo distanciamiento frente al reduccionismo de la ciencia
clásica y la consecuente crítica del pensamiento simplificador, que para el autor conlleva a
dificultades como la imposibilidad de concebir la conjunción entre lo uno y lo múltiple, destruye
los conjuntos y las totalidades y aísla los objetos del medio ambiente (Morin, 2005, pp. 19-20).
Morin atribuye a la teoría de sistemas la emergencia de un pensamiento complejo, de una
concepción del mundo como un tejido de elementos heterogéneos e inseparables. Es
principalmente en relación a esta idea que Morin se adscribe al modelo de pensamiento
inaugurado por Bertalanffy. Así, la TGS es considerada como precursora de dos cuestiones que
Morin ha promovido: la visión de las leyes de organización de los sistemas como un problema de
desequilibrio compensado, o de dinamismo estabilizado, y, por otra parte, la idea que la
inteligibilidad de un sistema debe buscarse en su relación con el medio ambiente.
Desde esta perspectiva se asume que un sistema solamente puede entenderse si se tiene en
cuenta su medio ambiente, que es considerado como parte integrante del sistema a la vez que es
considerado como exterior a éste. De este modo el medio ambiente en el que existe un sistema
dado no es considerado solamente como un aspecto constitutivo de éste, sino que el sistema es
considerado asimismo como parte constitutiva del medio ambiente. En palabras de Morin, “la
realidad está desde entonces tanto en el vínculo como en la distinción entre el sistema…y su
ambiente.” (Morin, 2005, p. 32)
Lo anterior implica para Morin una “mutación en el estatus ontológico del objeto”, producto de
considerar ciertos fenómenos como sistemas auto-organizados y como entidades
fenomenalmente individuales. Según esta concepción, un sistema, aunque tenga autonomía (o
individualidad), está en estrecho contacto con su medio ambiente y por lo tanto no es separable
de éste. Lo anterior equivale a decir que los objetos auto-regulados son el producto de una
adecuación total entre la forma fenomenal, es decir el contexto, y sus principios internos de
organización (Morin, 2005, p. 45).
Este cambio ontológico en la concepción del objeto se traduce en la búsqueda de modelos en los
que sujeto y objeto estarían integrados. De este modo Morin encuentra la posibilidad de dar un
sentido epistémico a la concepción sistémica de los fenómenos: “[é]sta nos indica que el objeto
4. Sistemas
89
debe ser concebido en su ecosistema y más ampliamente en un mundo abierto…y en un meta-
sistema.” (Morin, 2005, p.65) De acuerdo con esta epistemología sistémica se considera que los
límites entre un sistema y su medio ambiente se encuentran siempre en un lugar intermedio
entre uno y otro, en el equilibrio, producto de su interacción, que se establece entre los dos y que
es la condición de existencia de ambos.
Una visión similar ha sido explorada en la filosofía sistémica de Erwin Laszlo. Partiendo de la idea
que los fenómenos naturales, en tanto que sistemas, son conjuntos de elementos organizados, el
autor de El sistemismo emplea el concepto de sistema natural para referirse a todos los
fenómenos que no deben su existencia a una planificación y a una ejecución conscientes, es decir,
que muestran algún tipo de organización que no es producto de agentes externos al sistema
mismo.
Para Laszlo la producción de teorías isomórficas, de conceptos paralelos en las ciencias naturales y
sociales, permite formular una serie de leyes generales que se aplican a todos los sistemas, que el
autor clasifica en tres categorías: sistemas infra-orgánicos, orgánicos y supra-orgánicos, o sea,
fenómenos físicos, biológicos y sociales. Laszlo define cuatro constantes organizacionales que,
basándose en la evidencia de diversos desarrollos recientes en diferentes campos de la ciencia,
permiten al autor afirmar su validez universal.
En primer lugar, los sistemas naturales son considerados como totalidades que presentan
propiedades irreductibles. Esta idea, insistentemente repetida en los escritos de Bertalanffy,
corresponde a la concepción holística según la cual el comportamiento del todo es diferente al
comportamiento individual de cada una de sus partes. Desde esta perspectiva se considera que el
estudio de cualquier sistema debe tener en cuenta los problemas de organización y que estos no
pueden reducirse al estudio independiente de sus componentes.
34
En el centro de esta reflexión
también se encuentran las nociones de interacción y comunicación. Para Laszlo la interacción
entre los diversos elementos de un sistema puede entenderse como un problema de
comunicación, independientemente de que se trate de las interacciones entre un grupo de
átomos, los procesos físico-químicos del organismo o la comunicación entre individuos en un
grupo social (Laszlo, 1981, pp. 29-30).
34
Como ejemplo, Laszlo propone el caso de la composición de los organismos a partir de las mismas substancias. Así, el
autor puede afirmar que “la diferencia entre César y el chimpancé no es en principio una diferencia de substancia, sino
de estructuración relacional de la substancia.” (Laszlo, 1981, p.28). Para expresar lo mismo, usando esta vez como
ejemplo las agrupaciones sociales, Laszlo plantea que, independientemente del tipo de asociación, su comprensión
debe tener en cuenta las propiedades combinadas de numerosos individuos expresados en las propiedades particulares
del grupo.
90
La segunda constante organizacional planteada por Laszlo define los sistemas naturales como
formas de organización que se mantienen en un ambiente dinámico. Este principio equivale a
decir que los sistemas no son estáticos, sino que tienden a desarrollarse, a evolucionar o a
degradarse. De acuerdo con esta idea, la conservación de la organización, es decir, el estado
estable de los organismos, se extiende a la naturaleza en general. O mejor dicho, a la naturaleza
de la naturaleza, que es considerada como un gran mecanismo auto-regulador. Así, desde el
átomo hasta los más complejos sistemas sociales coinciden en presentar igualmente mecanismos
de ajuste, adaptación y mantenimiento de un estado estable (Laszlo, 1981, pp. 32-40).
La tercera constante planteada por Laszlo se refiere a la capacidad de los sistemas naturales de
formarse a sí mismos como reacción al desafío del ambiente. Este punto se explica mediante el
ejemplo hipotético de un grupo de objetos organizados que comparten un espacio. En el ejemplo
de Laszlo, cada objeto en el espacio está abierto a las influencias de su medio ambiente y
reacciona a ellas. De esta manera se establece un proceso de intercambio permanente en el que
cada objeto influencia a todos los demás, sea directa o indirectamente. Puesto que cada uno de
los elementos del sistema está en comunicación con el ambiente, “cada sistema provoca
constantemente a los otros en la medida que él mismo reacciona a tales provocaciones.” (Laszlo,
1981, p. 42).
Las tres condiciones precedentes se relacionan directamente con varios aspectos centrales de la
teoría de sistemas (interdependencia, complejidad, diferenciación y jerarquía), que definen la
cuarta condición organizacional de los sistemas propuesta por Laszlo. En relación con estos
factores, los sistemas naturales son concebidos como módulos de coordinación en la jerarquía de
la naturaleza. Esta condición corresponde a la idea según la cual el universo es considerado como
un complejo meta-sistema, constituido por la superposición de sistemas en una jerarquía
continua que atraviesa las regiones de lo físico, lo biológico y lo social (Laszlo, 1981, p. 59) En este
sentido cada sistema, aunque diferenciado, puede aparecer como elemento de otro sistema. En
tanto que elemento, un sistema siempre juega un rol de interfaz, de componente que coordina la
relación entre otras partes y funciones. El hombre, por ejemplo, visto en términos fisiológicos
constituye un todo integrado, pero visto en términos sociológicos es una parte integrada del
sistema social.
Apoyándose en estas cuatro condiciones, que para el autor constituyen el factor común de una
diversidad de fenómenos, la filosofía sistémica de Laszlo promueve una ética ecológica resultante
de la visión de la naturaleza como un sistema de organización compleja: “Fibras de orden tejen la
jerarquía en formación adquiriendo un contorno cada vez más definido. Las características
4. Sistemas
91
comunes se encuentran bajo diferentes formas en cada uno de los diferentes niveles, con
propiedades organizadas de un nivel al otro en una secuencia continua pero irreductible. La
inteligencia sistémica de la naturaleza es una toma de harmonía y de equilibrio dinámico. El
progreso se inicia desde la base sin estar determinado desde la cima, y se descubre ser a la vez
definido y abierto respecto a su fin. Para existir es necesario adaptarse. Si se trata de escoger un
camino propio, hay libertad – pero se trata de una libertad contenida en los límites de su
compatibilidad con la estructura dinámica del todo.” (Laszlo, 1981, p.66)
Las ideas de Morin y Laszlo resumen bastante bien la visión a partir de la cual se han concebido
explicaciones sistémicas de diversos fenómenos; de la sociedad (Parsons, Luhman), de la
economía (Hayek, Kelly) y del mundo en general (Odum). A esta concepción subyace una
ontología cibernética que se percibe en prácticamente todos los postulados del pensamiento
sistémico.
4.6 El pensamiento sistémico y la cibernética
La relación entre el pensamiento sistémico y la cibernética ha sido explorada desde diferentes
perspectivas por diferentes autores. François Dosse, por ejemplo, plantea que la visión sistémica
puede entenderse como una prolongación del estructuralismo. Según el autor, las dos corrientes
de pensamiento comparten los mismos ideales de cientificidad y de universalidad, además de
compartir una visión holística del mundo y un interés particular por la interdisciplinaridad. Según
Dosse, la cibernética constituye el vínculo que permite establecer la relación entre los dos
modelos, señalando que la cibernética jugó un rol importante en el desarrollo de ambos (Dosse,
1995, pp. 492-494).
Morin comparte el punto de Dosse respecto a las aspiraciones de universalidad, holismo e
interdisciplinaridad de los dos modelos, señalando además que el pensamiento sistémico
comparte con la cibernética los mismos “aspectos fecundos”. El autor se refiere concretamente al
empleo del concepto de máquina en la categorización de los sistemas organizados (Morin, 2005,
pp. 28-29).
Céline Lafontaine sugiere que la visión sistémica – puesto que se interesa particularmente en la
organización de los sistemas, independientemente de su naturaleza, y en una visión de la vida en
términos de complejidad – se inscribe en la constelación de disciplinas en cuyo centro se
encuentran la biología, las ciencias de la comunicación y las ciencias cognitivas. Así, para la autora
de L’empire Cybérnetique es posible afirmar, sobre la base de esta reorientación disciplinaria, que
92
“la influencia de la cibernética se afirma más concretamente con el pensamiento sistémico”
35
y
que lo anterior aparece de manera evidente en las teorías de la auto-organización que definen lo
que se conoce como cibernética de segundo orden (Lafontaine, 2004, p. 118). Lo anterior aparece
más claramente si se piensa, por ejemplo, en la conexión entre el trabajo del cibernético William
Ross Ashby y el trabajo de algunos de los más notables teóricos de la auto-organización, entre
Humberto Maturana y Francisco Varela.
36
En realidad, las coincidencias entre la cibernética y la teoría de sistemas son tantas que incluso ha
habido una tendencia a considerar los dos modelos como un mismo campo (Umpleby & Dent,
1999, p. 80). Aunque el pensamiento sistémico ha desarrollado sus propios conceptos, y se ha
centrado especialmente en la creación de un modelo aplicable al estudio de una amplia variedad
de fenómenos,
37
varios aspectos dan sustento al punto señalado por Umpleby y Dent.
Bertalanffy es el primero en reconocer la estrecha correspondencia entre la cibernética y su
teoría. De hecho, una mirada rápida a sus referencias bibliográficas parece suficiente para
entender la enorme influencia cibernética en la Teoría General de Sistemas. Entre los autores
citados aparecen Ashby, Beer, von Foerster, Gray, Kubie, MacCulloch, von Neumann, Shannon,
Weaver y Wiener. Es decir la mayoría de los participantes más destacados de las conferencias de
Macy y otros, como Cannon y Turing que, aunque no participaron directamente en el desarrollo
de la cibernética, tienen vínculos muy cercanos con ésta.
Para enfatizar esta correspondencia Bertalanffy hace referencia, en su introducción a la TGS, a
una conferencia ofrecida por Lawrence K. Frank, donde el cibernético señala el carácter fructífero
de las metodologías cibernéticas para “el estudio de procesos auto-regulados, de los sistemas y
de los organismos auto-dirigidos.” (Citado en Brtalanffy, 1993, p.15)
35
Este punto es importante porque ayuda a comprender dos cuestiones cruciales aquí abordadas. Por una parte,
permite entender por qué los modelos sistémicos parecen directamente extraídos de la teoría cibernética. Por otra
parte, el argumento de Lafontaine también permite pensar la conexión entre la cibernética, la teoría de sistemas y el
pensamiento de la complejidad, tema abordado en el capítulo 6.
36
Ashby es el autor de un influyente artículo titulado Principles of the Self Organizing System donde se definen los
organismos y las máquinas en términos de la comunicación entre las partes que conforman un todo. Este mismo tipo de
caracterización ha sido empleado por Maturana y Varela, quienes en referencia a la lógica de causalidad cibernética,
promovieron una concepción del organismo como un mecanismo auto-organizado que mantiene un vínculo directo con
la descripción del sistema abierto de Bertalanffy.
37
Morin plantea en este sentido que el campo de la teoría de sistemas es mucho más amplio que el de la cibernética,
en la medida que la visión sistémica puede extenderse a todo los fenómenos conocibles (Morin, 2005, p.28-29).
4. Sistemas
93
Tal reconocimiento aparece con mayor claridad en las notas sobre el desarrollo de la teoría
matemática de sistemas, donde Bertalanffy define los sistemas en los mismos términos
empleados por Wiener para el estudio de los servomecanismos. De esta manera un sistema es
concebido como una “caja negra” y sus relaciones con el ambiente son consideradas en términos
del modelo propuesto por la teoría de la comunicación (Bertalanffy, 1993, p.90-91).
Este es el principio que subyace al concepto de sistema abierto, modelo que, como ya se
mencionó antes, se inspiró en las categorías propuestas por la cibernética para el estudio
comparativo del funcionamiento de los organismos y las máquinas. Este aspecto en particular
permite observar el estrecho vínculo entre la TGS y los discursos de la información.
En referencia a su conceptualización del organismo, Bertalanffy afirma que, desde los inicios de la
ciencia moderna, el modelo de la máquina ha servido como esquema conceptual para explicar la
noción de orden en los sistemas vivientes; o sea, los procesos químicos y físicos “ordenados” que
permiten a un organismo crecer, desarrollarse, reproducirse, etc. Añade el autor que el tipo de
explicación mecánica ha correspondido al tipo de máquinas propias de cada época. Así, el
organismo ha sido considerado como el producto de una relojería compleja o, en el caso de la
cibernética, como un servomecanismo (Bertalanffy, 1993, pp. 143-144).
Este es en gran medida el modelo adoptado por Bertalanffy. En concordancia con la concepción
cibernética de los organismos, la teoría del sistema abierto se basa en una descripción de los
sistemas vivos como un tipo de organización que mantiene sus propiedades mediante el
intercambio permanente entre sus componentes. Aunque la descripción del organismo como un
sistema abierto hace particular énfasis en el carácter auto-organizado de los seres vivos (en este
sentido Bertalanffy concibe los sistemas orgánicos como máquinas compuestas de combustible
que se consumen y se regeneran a sí mismas)
38
, el modelo del sistema abierto se basa
fundamentalmente en el paradigma de cusalidad cibernético.
38
Para Morin esto implica “una relación nueva respecto a la entropía, es decir, una aptitud, aunque sea temporal, a
crear entropía negativa a partir de la entropía misma; una lógica mucho más compleja y sin duda diferente de la de toda
máquina artificial. En fin, ligado indisolublemente a los…rasgos que acabamos de enunciar, está el fenómeno de la auto-
organización.” (Morin, 2005, p. 41) En este sentido la teoría del sistema abierto se acerca particularmente de los
desarrollos de la cibernética de segundo orden. Por ejemplo, referencia a la cuestión de la auto-organización
mencionada por Morin, cabe recordar un pasaje de Bertalanffy que obliga a pensar en el trabajo de von Foerster,
Maturana y Varela. Bertalanffy argumenta que si, de acuerdo a su descripción, se considera el organismo como una
máquina, ésta “se encuentra localizada al interior de un flujo ordenado de procesos. El orden primero debe entonces
encontrarse dentro del proceso mismo.” (Bertalanffy, 1993, p.145)
94
De esta manera, los sistemas físicos y vivos son considerados como fenómenos cuya existencia
depende de una alimentación (material-energética y organizacional-informacional) exterior
(Morin, 2005, p. 30). En consecuencia un sistema abierto es concebido como un fenómeno que no
conoce un estado de equilibrio químico y termodinámico, sino que se mantiene en un estado
estable. Teniendo en cuenta la definición de la entropía como el estado más probable (o sea, de
máxima desorganización) en un sistema cerrado, el estado estable de los sistemas abiertos
aparece como el aspecto característico de su capacidad para mantenerse en un estado muy
ordenado, o incluso de evolucionar hacia una mayor diferenciación y organización (Bertalanffy,
1993, pp. 145-148).
Junto a esta referencia al concepto cibernético de entropía, el modelo del sistema abierto
también se construye en base a las nociones de retroalimentación e información. Aunque el
modelo cibernético es empleado por Bertlanffy especialmente para caracterizar el intercambio de
materia y energía en los sistemas vivos, el concepto de información (o entropía negativa) le
resulta indispensable para describir conceptos centrales como orden y organización. De la misma
manera, aunque en el modelo del sistema abierto los mecanismos de regulación de tipo feedback
solamente representan cierto tipo de regulación orgánica, en la teoría de sistemas el concepto de
retroalimentación juega un rol central. Definido por Bertalanffy como la retransmisión de la
información que hace que un sistema sea auto-regulado, o como el mecanismo que garantiza la
estabilidad y la dirección de la acción, el concepto de retroalimentación cibernético es retomado
en el modelo del sistema abierto para la descripción de diversos fenómenos biológicos.
39
Antes se mencionó que dos aspectos cruciales de la TGS se desprenden de la caracterización de
los organismos como sistemas abiertos y auto-regulados: la consideración de los problemas de
organización como el resultado del equilibrio que se establece entre un sistema y su medio
ambiente, y la consecuente comprensión de los sistemas como fenómenos indisociables de su
contexto. En este sentido, los conceptos de totalidad, organización e integración, centrales en el
pensamiento sistémico, aparecen íntimamente relacionados con las nociones cibernéticas de
homeostasis, regulación y entropía.
Estos pocos ejemplos parecen suficientes para señalar el estrecho vínculo entre el pensamiento
de sistemas y la teoría cibernética, un modelo a partir del cual las cosas en el mundo dejaron de
pensarse como fenómenos individuales, para ser pensadas como complejos procesos auto-
regulados que implican una profunda integración entre un sistema y su contexto.
39
Bertalanffy se refiere en este sentido a los trabajos sobre la homeostasis de Bernard y Cannon, que se encuentran en
el origen de la noción cibernética de auto-regulación tal como es expuesta por Wiener.
4. Sistemas
95
En relación con lo expuesto en las páginas precedentes se entiende de qué manera algunas de las
ideas dominantes en el campo del diseño computacional – por ejemplo la idea de pensar el diseño
desde una lógica relacional, donde los objetos arquitectónicos son pensados como sistemas
integrados y en interacción con el medio ambiente – son una herencia de las narrativas
cibernéticas que se encuentran en el centro de la lógica de sistemas teorizada por Bertalanffy.
96
4.7 La arquitectura y el pensamiento sistémico
Un sistema, de acuerdo con la definición propuesta por
Herbert Simon en The Sciences of the Artificial, es una
jerarquía compuesta por varios subsistemas, cada uno de
los cuales puede tener sus propias jerarquías; Simon
también define un sistema como una colección de partes
con relaciones asimétricas organizadas dentro de un todo
(Simon, 1996). Esta descripción, que coincide con las
definiciones de sistema propuestas por algunos de los
autores citados arriba, como Bertalanffy y Laszlo, es
representativa de una visión que redefine el estatus de las
cosas en el mundo, a partir de la cual diversos fenómenos
(físicos, biológicos y sociales) han sido considerados como
totalidades organizadas.
Esta manera de concebir los fenómenos ha sido una de las
cuestiones centrales alrededor de las cuales se ha
construido la perspectiva computacional en la profesión.
Como se vio en el capítulo precedente, la concepción de los
problemas de diseño desde una perspectiva holística ha sido
uno de los problemas fundamentales planteados por la
definición de la arquitectura como un fenómeno
performativo. Por lo tanto, la construcción sistémica de los
problemas de la arquitectura se ha encontrado en el centro
de las elaboraciones de la arquitectura computacional
desde sus primeras experiencias (Fig. 1).
Esta manera de concebir los problemas de diseño ha sido a
tal punto explorada en las investigaciones de la arquitectura
computacional, que algunos profesionales y críticos la han
considerado como una especie de doctrina, o movimiento,
que ha dirigido una buena parte de la producción digital de
la arquitectura en los últimos años.
Figura 1
Estas dos imágenes corresponden a la
representación, propuesta por Christopher
Alexander, de la concepción de los
problemas de diseño como sistemas
definidos por la integración de diferentes
elementos y condiciones. Según la visión
promovida por Alexander, la correcta
solución de un problema de diseño exige la
comprensión de estos factores y su
correcta adecuación en función de los
requisitos del programa. Fuente: Notes on
the Syntesis of Form, 1986. C. Alexander.
Al respecto,
Neuman y Grobman señalan la existencia de una
tendencia
que ellos definen como
según los autores, de una
nueva forma de la vanguardia
profesión, que constituye el foco
arquitectos digitales.
Más que un estilo, esta
consistiría en un cambio
de paradigma
la arquitectura
. Se trata, según los autores, de un cambio
orientado a conc
ebir los objetos arquitectónicos como el
producto de un proceso dinámico,
combinación de diversos aspectos (empíricos, cognit
perceptivos) que definen los
problemas de “forma y función,
objeto y sujeto, espacio y cuerpo, per
política e ideología”
en la producción arquitectónica
contemporánea
(Neuman & Grobman, 2012, p. 4)
Una idea similar ha sido expuesta por Patrick
quien, a través su teoría del “
parametricis
situarse como el principal teórico y promotor de la concepción
sistémica de la arquitectura.
expuestas por
autores como Niklas Luhman, en el campo de la
sociología, y Humberto Matura
campo de las ciencias natura
les, Schumacher ha planteado una
visión de la profesión que parte de la idea que
elementos…de la arquitectura se han convertido
paramétricamente maleables y permanecen dinámicamente
integrados en redes de dependencia, incl
aspectos del contexto; todos los subsistemas son
internamente diferenciados y se correlacionan con (todos) los
otros subsistemas.”
(Schumacher, 2012)
Parafraseando a los teóricos
de los sistemas, el autor
manifiesto parametricista
afirma que “[t]odo debe resonar
con todo lo demás. Esto debería dar lugar a una intensificación
de las relaciones en el campo urbano con una densidad
performativa
, la riqueza de información, y la coherencia
97
Neuman y Grobman señalan la existencia de una
que ellos definen como
“performalismo”. Se trata,
nueva forma de la vanguardia
en la
profesión, que constituye el foco
del trabajo de muchos
Más que un estilo, esta
tendencia
de paradigma
en las elaboraciones de
. Se trata, según los autores, de un cambio
ebir los objetos arquitectónicos como el
producto de un proceso dinámico,
como el resultado de la
combinación de diversos aspectos (empíricos, cognit
ivos y
problemas de “forma y función,
objeto y sujeto, espacio y cuerpo, per
cepción y cognición,
en la producción arquitectónica
(Neuman & Grobman, 2012, p. 4)
.
Una idea similar ha sido expuesta por Patrick
Schumacher,
parametricis
mo”, ha pretendido
situarse como el principal teórico y promotor de la concepción
sistémica de la arquitectura.
En referencia a las ideas
autores como Niklas Luhman, en el campo de la
sociología, y Humberto Matura
na y Francisco Varela, en el
les, Schumacher ha planteado una
visión de la profesión que parte de la idea que
“los
elementos…de la arquitectura se han convertido
paramétricamente maleables y permanecen dinámicamente
integrados en redes de dependencia, incl
uyendo los múltiples
aspectos del contexto; todos los subsistemas son
internamente diferenciados y se correlacionan con (todos) los
(Schumacher, 2012)
de los sistemas, el autor
del
afirma que “[t]odo debe resonar
con todo lo demás. Esto debería dar lugar a una intensificación
de las relaciones en el campo urbano con una densidad
, la riqueza de información, y la coherencia
Figura 2
Lo anterior aparece representado en este
“diagrama catalítico” que, como en los
diagramas de Alexander, muestra la
misma concepción de los problemas de
diseño como u
interconectados. Se trata de una visión que
define un problema arquitectónico como
“una relación en red de fuerzas y factores”
que afectan a los arquitectos, el trabajo de
la arquitectura y las producciones
arquitectónicas.
2012. K. Moe & R. Smith (Eds).
4. Sistemas
Lo anterior aparece representado en este
“diagrama catalítico” que, como en los
diagramas de Alexander, muestra la
misma concepción de los problemas de
diseño como u
n sistema de aspectos
interconectados. Se trata de una visión que
define un problema arquitectónico como
“una relación en red de fuerzas y factores”
que afectan a los arquitectos, el trabajo de
la arquitectura y las producciones
arquitectónicas.
Fuente: Building Systems,
2012. K. Moe & R. Smith (Eds).
98
cognitiva que permite una navegación rápida y una efectiva participación en un escenario social
complejo.” (Schumacher, 2012) En consecuencia, para Schumacher, desde una perspectiva
sistémica, las organizaciones arquitectónicas aparecen como el resultado emergente de su auto-
organización y de la interacción de múltiples elementos.
Los ejemplos anteriores constituyen una muestra de cómo, desde una perspectiva sistémica, la
arquitectura ha sido pensada como un fenómeno dinámico, como un problema de relaciones
entre múltiples elementos y como un fenómeno emergente, mientras que su producción es
concebida como un proceso que puede ser dirigido por la manipulación de flujos de información.
A estas caracterizaciones de los objetos arquitectónicos subyace la visión de los fenómenos en el
mundo como sistemas abiertos, es decir, como sistemas que de manera permanente
intercambian información, materia y energía con su entorno para alcanzar un estado de
equilibrio.
En términos de la producción de la arquitectura, este paradigma de causalidad se ha traducido en
una aproximación al diseño basada en una lógica relacional. Consecuentemente, las
metodologías de concepción desarrolladas aspiran a incorporar todos los factores, actores y
fuerzas que participan en la producción de una realidad arquitectónica o urbana (Fig. 2). Como lo
plantean Kiel Moe y Ryan E. Smith, una aproximación sistémica en la arquitectura implica
determinar las partes de un proyecto, sus conexiones y sus redes de acción dentro de un marco
que responde a cuestiones de función, escala, alcance, jerarquía, inputs, outputs y grados de
equilibrio dinámico (Moe & Smith, 2012, pp. 4-9).
Al respecto, el crítico Sanford Kwinter ha argumentado que, desde esta perspectiva, los objetos
arquitectónicos y urbanos han dejado de ser pensados como unidades individuales, para ser
concebidos como un conjunto de relaciones entre los elementos de un sistema. Para Kwinter
esto implica que “el objeto – sea éste un edificio, un sitio compuesto, o toda una matriz urbana,
mientras tales unidades continúen existiendo en términos funcionales – ya no sería definido por
su apariencia, sino por prácticas: las que comparte y las que tienen lugar dentro de éste. En esta
redefinición, la unicidad del objeto se desvanecería necesariamente – desviándose hacia un
campo único pero articulado doblemente (las relaciones, por definición, nunca corresponden a los
objetos).” (Kwinter, 2001, p. 14)
4. Sistemas
99
Lo que resulta de la redefinición a la que se refiere
Kwinter, es una visión de los hechos arquitectónicos y
urbanos según la cual éstos aparecen representados
tanto por las relaciones que son más pequeñas que el
objeto (o internas a él), como por las relaciones o
sistemas que son más grandes que éste, y de las cuales el
hecho arquitectónico, o urbano, sólo sería una parte.
Kwinter se refiere a estos dos estados como micro-
arquitecturas y macro-arquitecturas, lo cual no es otra
cosa que la traducción a un lenguaje arquitectónico de la
concepción holística del pensamiento de sistemas; o sea,
la idea según la cual los sistemas pueden ser,
simultáneamente, conjuntos constituidos por sub-
sistemas y/o parte componente de meta-sistemas más
grandes que los contienen.
4.8 La visión holística
La elaboración de los problemas de diseño desde esta
perspectiva se ha desarrollado alrededor de tres
conceptos centrales en el pensamiento sistémico: acción,
totalidad e integración. Concebidos como totalidades
organizadas, los objetos arquitectónicos han sido
pensados como entidades dinámicas y altamente
integradas con el contexto, donde los límites entre la
arquitectura y los múltiples factores que participan en su
consolidación se vuelven difusos (Fig. 3).
El resultado más evidente de la re-elaboración de la
arquitectura alrededor de estas nociones ha sido
replantear el carácter estático de los objetos
arquitectónicos. En base a la concepción sistémica, los
Figura 3
Esta característica de la concepción
sistémica de la arquitectura aparece
claramente en la representación de los
proyectos, donde una serie de aspectos
externos al objeto arquitectónico suelen
ser presentados como factores
protagónicos en la definición de la forma
arquitctónica. Fuente: Performative
Architecture, 2005. B. Kolarevic & A.M.
Malkawi (Eds).
Figura 4
En el proyecto de Peter Eisenman para una
biblioteca en Hamburgo, el diseño se
estructura de acuerdo con las fuerzas
presentes en el contexto. De este modo la
forma arquitectónica es concebida como
registro del paso del tiempo y arqueología
de la ciudad. Lo anterior mediante el
mapeo de la organización estructural de
dos iglesias aledañas sobre el sitio de
implantación del proyecto. Fuente:
Performalism. Form and Performance in
digital Architecture, 2012. Y.J. Grobman &
E. Neuman (Eds).
100
hechos arquitectónicos han dejado de ser concebidos de
este modo para ser pensados como artefactos dinámicos.
La caracterización de la arquitectura como un fenómeno
dinámico ha sido explorada de diversas maneras. Entre
estas sobresalen las construcciones de los objetos
arquitectónicos en las que estos son definidos en función de
lo que hacen. Esto incluye su elaboración como artefactos
de mediación o modificación del ambiente, como un
momento en un flujo geométrico, como el resultado formal
de un proceso sometido a un intercambio de fuerzas, o
como un mecanismo homeostático – que debe ajustar su
comportamiento de manera permanente con el fin de
mantener un estado de equilibrio en relación con un
contexto cambiante (Figs. 4-6).
La concepción de la arquitectura como un artefacto
dinámico, o del diseño arquitectónico como un proceso, ha
sido inseparable de la concepción de la arquitectura como
un problema de interacción y totalidad. Invariablemente,
esta manera de representar los problemas de la
arquitectura implica establecer conexiones entre varios
factores, y una concepción del hecho arquitectónico como
una realidad emergente.
En el pensamiento sistémico la idea de totalidad se ha
asociado con la concepción de los sistemas como
fenómenos que son diferentes a la suma de sus partes, o
sea, como todos integrados que no pueden comprenderse
mediante el análisis individual de los elementos que los
componen. Trasladada a los problemas de la arquitectura, la
visión holística se ha reflejado en diferentes modelos de
diseño, tecnológicamente mediados, donde los edificios han
sido pensados como el producto de las dinámicas complejas
Figura 5
El proyecto Iso-Morph, de Open Source
Architecture, es un ejemplo típico de la
exploración del diseño como un proceso.
En este sentido el diseño no se concibe
como definición de la forma, sino como un
proceso de formación en el que el edificio
es pensado como un sistema dinámico que
reacciona a estímulos, y la forma
arquitectónica como “output” de los
parámetros incluidos en el sistema. Fuente:
Softspace, 2007. S. Lally & J. Young (Eds).
Figura 6
La representación del proyecto como un
mecanismo que responde a las condiciones
de un contexto, es el mejor ejemplo de la
consideración del objeto arquitectónico
como una suerte de sistema homeostático,
como un sistema que que establece alguna
forma de equilibrio con el medio ambiente.
Fuente: Performalism. Form and
Performance in digital Architecture, 2012.
Y.J. Grobman & E. Neuman.
4. Sistemas
101
– que envuelven factores materiales, constructivos,
sociales y ambientales – que definen una situación
de habitación.
Diversos profesionales vinculados a la producción
digital de la arquitectura han señalado de qué
manera estas consideraciones se reflejan en sus
exploraciones.
4.9 Arquitecturas sistémicas
El trabajo teórico y experimental de Michael
Hensel, por ejemplo, constituye un caso
paradigmático de la concepción sistémica de los
problemas disciplinares de la arquitectura. Para
Hensel la visión sistémica de los problemas de la
arquitectura aparece como el origen del cambio en
la concepción de la “organización material y
espacial como una configuración estática que
solamente define un objeto”, dando paso a su
comprensión como “procesos intrincados de
interacción y las capacidades y transformaciones
que surgen de estas interacciones.” (Hensel, 2012,
p. 43) Para Hensel lo anterior se relaciona con la
indivisibilidad de los aspectos formales y
funcionales de la arquitectura (Fig. 7); es decir con
la interacción de cuatro dominios de acción: sujeto,
ambiente y el complejo organizacional constituido
por la materia y el espacio (Hensel, 2012, p.43)
Esta descripción de los problemas de diseño, que
remite a las nociones de totalidad e integración,
aparece claramente representada en un modelo
Figura 7
Hensel presenta mediente este diagrama su
concepción del hecho arquitectónico como un sistema
de retroalimentación, compuesto no solamente por los
aspectos materiales y espaciales de la arquitectura,
sino por otros factores que incluyen el medio ambiente
y los usuarios. Adaptado de: Performalism. Form and
Performance in digital Architecture, 2012. Y.J.
Grobman & E. Neuman (Eds).
Figura 8
Figura 8. El modelo multiperformativo de Hensel y
Menges plantea una concepción ecológica de la
arquitectura que “promueve la diferenciación de las
condiciones ambientales a través de una inteligencia
morfológica”, que permite conectar el comportamiento
de los sistemas materiales con la modulación del
ambiente. Fuente: AD, 2006. Vol.76 (2).
102
“multi-perforfativo” explorado por Hensel en colaboración con Achim Menges (Fig 8). Inspirado en
algunas de las ideas expuestas en el célebre ensayo de Reyner Banham, The Architecture of the
Well-Tempered Environment, este modelo constituye una aproximación al diseño que tiene en
cuenta las relaciones variadas y dinámicas entre los sistemas materiales, las condiciones
ambientales y el uso (Hensel & Menges, 2006, p. 63). La misma idea es explorada por Hensel y
Menges cuando se refieren a su modelo morfo-ecológico de diseño como una búsqueda
orientada hacia el alto nivel de integración entre los sistemas constructivos, los aspectos
materiales y los fenómenos ambientales que configuran el espacio y la forma arquitectónica
(Hensel & Menges, 2008a, pp. 102-111)
En términos similares, Mahadev Raman ha descrito las prácticas contemporáneas de diseño
sostenible no solamente como un problema ligado al consumo de recursos naturales, sino como
el correcto balance entre preocupaciones sociales, ambientales y económicas. Desde este punto
de vista, un proceso de diseño es considerado exitoso en la medida que la arquitectura, la
estructura y los diversos sistemas constructivos actúan como un todo integrado (Raman, 2005, p.
43).
William Braham promueve una postura análoga cuando sosteniene que, desde una perspectiva
holística, los diferentes sistemas constructivos deben dejar de ser considerados como artefactos
optimizados para cumplir funciones específicas, para ser concebidos como sistemas complejos
40
que operan globalmente, y de manera simultánea, tanto en los edificios como en los habitantes
(Braham, 2005, p. 67).
La misma cuestión se encuentra en el centro del trabajo desarrollado por Ali Rahim, quien
considera que “[e]l deseo de estudiar el comportamiento de la materia en su complejidad, trae
consigo un ordenamiento del mundo donde los sistemas son entendidos como entidades
entrecruzadas y en un estado constante de flujo.” (Rahim, 2005, p. 82).
Los ejemplos precedentes son sólo una pequeña muestra de cómo, desde la perspectiva holística,
propia del pensamiento de sistemas, diferentes prácticas involucradas en la producción digital de
la arquitectura han coincidido en la construcción de visiones de los hechos arquitectónicos como
ecologías, como el resultado de un proceso complejo de interacción, como artefactos de
mediación entre diversos factores, como substrato y catalizador de relaciones, o como el
resultado de entidades intrincadas y en permanente movimiento.
40
En el capítulo 6 se analizará en detalle la caracterización de la arquitectura como un fenómeno complejo, que se
desprende de la comprensión de los problemas de la arquitectura como sistemas.
4. Sistemas
103
En este punto es interesante señalar de qué modo estas
caracterizaciones mantienen un vínculo con dos
aspectos cruciales, y estrechamente relacionados, que
han marcado muchas elaboraciones computacionales de
la arquitectura. Se trata de la consideración de los
procesos de formación de la arquitectura como
fenómenos autónomos, y de la correspondiente
caracterización de la arquitectura en referencia a
analogías orgánicas.
4.10 La autonomía de la arquitectura
Las aproximaciones sistémicas al diseño, donde los
objetos arquitectónicos y los métodos de proyectación
desarrollados han sido construidos como fenómenos
emergentes – como mecanismos que surgen de las
condiciones variables de un contexto dado – han
reforzado una cuestión que ha ocupado un lugar
fundamental en la producción computacional de la
arquitectura. Se trata de la consideración de la
independencia del hecho arquitectónico frente a un
sistema de valores preestablecidos, sean estos valores
relacionados con cuestiones de estilo, técnica o
ideología.
En palabras de David Leatherbarrow “[c]uando el
edificio es liberado de intencionalidades estéticas y
tecnológicas, descubrimos sus conexiones laterales con
un medio social y ambiental, que no es el producto de
nadie, aun menos del diseño y la planeación…El punto a
ser considerado es la excentricidad del edificio, su
Figura 9
La delegación a la máquina, promovida por
Kostas Terzedis y otros, ha sido una de los
temas ampliamente explorados en las
producciones computacionales de la
arquitectura. Esta lógica de producción ha
servido de soporte para diferentes
prácticas que han promovido una visión de
la arquitectura como un hecho que no
necesita otra justificación que su
performance. Fuente: Digital Culture in
Architecture, 2010. A. Picon.
Figura 10
Reiser y Umemoto han descrito su trabajo
en referencia a dos aspectos que se
desprenden del principio que la
arquitectura es “la práctica material por
exelencia”. Lo anterior concierne “la
generación de la arquitectura dentro de la
dinámica de un campo material” y su
expresión, “el performance de sus efectos y
la política de su percepción”. Performalism.
Form and Performance in digital
Architecture, 2012. Y.J. Grobman & E.
Neuman (Eds).
104
existencia por fuera de si mismo”. (Leatherbarrow, 2005, p. 16)
El argumento sobre la autonomía de la arquitectura expuesto por Leatherbarrow señala dos
puntos esenciales que han sido explorados por diversas prácticas de diseño computacional, y que
mantienen un vínculo profundo tanto con la pragmática como con la ontología informacional.
Se trata, en primer lugar, de un asunto sobre el cual aquí se ha insistido. A saber, la consideración
de la existencia del edificio como la materialización de una red de intercambios entre diferentes
factores que incluyen múltiples variables externas al objeto arquitectónico. En este sentido la
pragmática computacional, que permite generar procesos autónomos de diseño – la delegación a
la máquina teorizada por Lynn – ha sido un factor esencial, que ha permitido pensar en la
autonomía de la arquitectura como su independencia frente a cualquier tipo de determinismo
establecido por el diseñador. Esta ontología y pragmática del diseño ha reforzado una concepción
del hecho arquitectónico como algo que se explica solamente en términos de su performatividad,
independientemente de cualquier canon establecido. Picon plantea que de este modo “[e]n vez
de relacionarse con un conjunto de valores e imágenes que no hacen parte del del objeto
diseñado y/o construido, la arquitectura debe justificarse a si misma a través de lo que su mera
presencia produce” (Picon, 2012, p. 17)
Este paradigma ha sido en gran medida el principio rector del trabajo de arquitectos como Peter
Eisenman y otras figuras influyentes en el desarrollo de la arquitectura digital como Greg Lynn y
Kostas Terzedis (Fig. 9).
Un claro ejemplo de cómo estas cuestiones aparecen representadas en la producción digital de la
arquitectura se encuentra en el trabajo de Jesse Reisser y Nanako Umemoto (Fig. 10), quienes han
explorado una visión de la arquitectura como un sistema que se genera dentro de la dinámica de
un campo material y que se expresa como efecto (Reiser & Umemoto, 2012, p. 171).
La misma cuestión ha sido expresada por Patrick Schumacher a través de un discurso que toma
prestados sus conceptos centrales a las ciencias biológicas. Las nociones de “apertura por medio
del cierre” y autopoiesis – centrales en la concepción del organismo desarrollada por Maturana y
Varela – ha sido empleada por Schumacher para promover, en relación con su concepción
sistémica del diseño, su visión de la autonomía de la arquitectura.
41
De esta manera Schumacher
41
Schumacher plantea que “[l]a autonomía de la arquitectura significa autodeterminación en el discurso. Ni filósofos,
científicos, políticos o clientes pueden gobernarla. La disciplina es autónoma en su esfuerzo por mantenerse relevante y
productiva; pero al mismo tiempo, para sobrevivir, debe permanecer relevante y productiva para la sociedad. Esto es lo
que Luhmann llama «apertura por medio del cierre»…La disciplina tiene que observar e interpretar su medio ambiente
4. Sistemas
105
ha argumentado que para ser relevante y productiva para la sociedad, la arquitectura debe
interpretar y responder con sus propios términos a su medio ambiente social (Flores, 2011).
Aunque en este caso concreto, Schumacher se ha servido de estos conceptos biológicos para
referirse a la autonomía de la arquitectura estrictamente en términos del desarrollo de una teoría
del diseño propia a la disciplina, la construcción de su discurso en referencia a nociones
heredadas de las ciencias biológicas no es un hecho fortuito, ni aislado. El empleo de nociones
importadas de las ciencias biológicas para señalar los cambios en las elaboraciones de la profesión
propios de la perspectiva computacional, es uno de los factores relevantes y recurrentes en este
campo. Se trata de un aspecto de las producciones digitales de la arquitectura que, al igual que la
visión holística, mantiene un vínculo cercano con el pensamiento cibernético.
Aunque el desarrollo de analogías orgánicas no ha sido un aspecto exclusivo de las exploraciones
de la arquitectura computacional – el empleo de metáforas de este tipo ha sido una constante en
la historia de la arquitectura occidental
42
– este ha sido el factor fundamental que ha dirigido
algunas de sus expresiones más influyentes. A esta manera de caracterizar los problemas de la
arquitectura subyace un aspecto que ha obsesionado a muchos arquitectos digitales, a saber, la
aspiración de producir arquitecturas capaces de exhibir el carácter autónomo de los seres vivos.
Como se verá a continuación, en la emergencia de estos imaginarios el influjo del pensamiento
sistémico ha sido un factor esencial.
4.11 Analogías orgánicas
La proliferación de metáforas biológicas en las prácticas de diseño digital puede explicarse por el
simple hecho que la visión sistémica, ideología dominante de la perspectiva computacional en la
arquitectura, emana de la comparación entre los organismos y los servomecanismos, artefactos
que en el pensamiento de cibernéticos como Wiener y Ashby son concebidos como mecanismos
análogos en su funcionamiento a los seres vivos. Por lo tanto es posible argumentar que por esta
vía, la concepción sistémica de los problemas de diseño se ha asociado directamente con la
social para responder pertinentemente con sus propios términos. La abstracción autorreferencial de la Autopoiesis, es
una condición preexistente para respuestas más sofisticadas y productivas a los desafíos de la sociedad.” (Flores, 2011)
42
Véase al respecto el trabajo de Philip Steadman: The Evolution of designs: Biological Analogy in Architecture and the
Applied Arts.
106
construcción de analogías biológicas para caracterizarlos, más concretamente, con la emergencia
de un imaginario en el que los hechos arquitectónicos han sido pensados como artefactos con
propiedades similrares a las que, desde la perspectiva cibernética, caracterizan a los
organismos.
43
Aaron Sprecher da sustento a esta idea cuando sostiene que el desarrollo de la cibernética, con su
énfasis en la naturaleza comunicativa de organismos y máquinas, dio paso a diferentes
elaboraciones en las que el objeto arquitectónico comenzó a ser pensado como una especie de
sistema natural (Sprecher, 2012, p. 27).
En las elaboraciones de la arquitectura computacional, a partir de la concepción comunicacional
de los objetos arquitectónicos, diferentes prácticas han desarrollado una variedad de enfoques de
los problemas disciplinares que, en referencia a conceptos como homeostasis, emergencia, auto-
organización, adaptación y evolución, han explorado una visión bio-inspirada de la arquitectura.
Todos estos conceptos mantienen un estrecho vínculo con el pensamiento cibernético; el
concepto de homeóstasis fue desarrollado por el fisiólogo francés Claude Bernard, y fue una
referencia crucial en el trabajo de Wiener sobre los sistemas de retroalimentación. Las nociones
de emergencia y auto-organización son los conceptos centrales alrededor de los cuales se ha
estructurado el pensamiento de la complejidad, un modelo científico que, bajo el influjo del
paradigma cibernético, ha explicado diversos fenómenos naturales como sistemas que dependen
de una lógica de retroalimentación positiva y negativa entre los elementos que los componen. En
cuanto a los conceptos de adaptación y evolución, en las ciencias biológicas contemporáneas
estos fenómenos se han explicado desde una concepción cibernética de los mecanismos de la
herencia y el desarrollo en los organismos.
Crucialmente, los modelos elaborados en el campo del diseño digital en base a metáforas
biológicas, de inspiración cibernética, han reforzado la concepción sistémica de los objetos
arquitectónicos y de los procesos de diseño.
43
Como se verá en el siguiente capítulo, esta manera de concebir los problemas disciplinares también ha recibido un
enorme impulso de la sinergia que ha existido entre la computación y las visiones informacionales de los fenómenos
biológicos. Es interesante anotar que en este sentido el pensamiento cibernético también ha sido una importante
influencia.
4. Sistemas
107
4.12 Sistemas homeostáticos, emergentes y evolutivos
Por ejmplo, el concepto de homeóstasis, que se refiere a los mecanismos mediante los cuales un
organismo vivo se mantiene en un estado de equilibrio frente a condiciones internas y externas
variables, ha sido empleado en la arquitectura para caracterizar los problemas de diseño como
una cuestión de balance entre diversas condiciones, actores y fuerzas. Concebidos como sistemas
homeostáticos, los objetos arquitectónicos han sido construidos como artefactos que surgen de
condiciones ambientales cambiantes y como sistemas que se adaptan, o evolucionan, en
respuesta a estas condiciones. En fin, estos han sido pensados como sistemas que, como los
organismos, establecen una relación de equilibrio con el medio ambiente. De este modo la
arquitectura ha sido construida como “una suerte de máquina casi-orgánica que se comportaría
como un organismo vivo.” (Sprecher, 2012, p. 27)
Este tipo de caracterización se observa en una variedad de modelos de diseño basados en la idea
que los múltiples mecanismos orgánicos de ajuste y regulación dinámica hacen la homeostasis
posible. Uno de estos ejemplos propone que aunque la arquitectura no es un organismo, esta
comparte con los organismos el hecho de ser el resultado de la interacción de una gran variedad
de factores. En este sentido se considera que lo que hace “la homeóstasis posible en la
arquitectura es la síntesis de la multi-negociación entre…opuestos.” (Gao, 2012).
Ha sido con base en la aspiración de atribuir a los objetos arquitectónicos las capacidades de
auto-regulación propias de los fenómenos orgánicos y otros sistemas naturales, que se han
desarrollado una serie de metodologías de diseño basadas en construcciones de la arquitectura
como un fenómeno emergente y auto-organizado, o como un sistema adaptativo y evolutivo.
Es interesante observar cómo estas construcciones de los objetos arquitectónicos (que se
analizarán en los capítulos siguientes) mantienen un cercano vínculo con la caracterización
sistémica de la arquitectura.
El concepto de emergencia ha ocupado un lugar prominente en las caracterizaciones de la
arquitectura computacional. Como se mencionó arriba, de la visión holística de los problemas de
diseño se desprende que las realidades arquitectónicas y urbanas no son procesos cerrados,
deterministas y unidireccionales, sino que constituyen procesos abiertos y emergentes. En este
contexto el concepto de emergencia ha sido empleado para caracterizar los procesos de
concepción en los que la arquitectura es considerada como el resultado de la interacción entre
usos, actores y condiciones variables. La concepción de la producción de la arquitectura como un
108
fenómeno emergente ha sido inseparable de su
consideración como un fenómeno auto-organizado,
concepto que describe los sistemas cuya organización es
el producto de la acción conjunta de múltiples
elementos sin que medie entre ellos un órgano de
control central.
En referencia a estos dos conceptos, que en las
elaboraciones de la arquitectura se han asociado con su
empleo en las ciencias naturales para caracterizar
procesos organicos como el desarrollo biológico y el
comportamiento inteligente, se han formulado
metodologías de diseño basadas en técnicas
algorítmicas donde la forma es producida a partir de
reglas simples. De este modo el rol del arquitecto se ha
limitado a la definición de un programa de restricciones
y parámetros, y los procesos de formación de la
arquitectura ha pasado a ser pensados como sistemas
autónomos y dinámicos, como la materialización de una
serie de varibles correspondientes a diversos factores
que definen una realidad arquitectónica o urbana (Fig.
11).
El principio es más o menos el mismo en los modelos
genéticos de diseño, que se han construido en
referencia a las nociones de evolución y adaptación. En
referencia a una serie de ideas importadas de campos
como la biología molecular y evolutiva, y mediante el
empleo de técnicas desarrolladas en el campo de la
biología computacional, los modelos genéticos han
explorado el diseño como un proceso generativo y la
arquitectura como un sistema codificado genéticamente
(Fig. 12). Desde esta perspectiva los edificios han sido
considerados como sistemas naturales que se adaptan y
evolucionan de acuerdo a un ambiente dado y en
Figura 11
Dentro de esta lógica, el proyecto de
investigación Associative Design, dirigido
por Peter Trummer, tiene como objetivo
proyectar nuevos modelos de urbanización
dirigidos por las fuerzas de los regímenes
urbanos contemporáneos. Fuente: AD,
2008. Vol. 78 (2).
Figura 12
Este experimento de “modificación
genética del espacio” muestra tres etapas
de la convergencia de un diseño hacia una
solución optima. El sistema empleado es un
algoritmo genético basado en un método
de optimización entre múltiples
parámetros, mediante el ajuste gradual de
parámetros individuales.Fuente: Space
Craft, 2008. D. Littlefield (Ed).
4. Sistemas
109
función de criterios de selección.
44
4.13 Arquitecturas bio-mórficas y bio-miméticas
La elaboración de la arquitectura alrededor de estos
imaginarios se ha asociado con dos tipos de
“biologización” de la profesión, que pueden definirse
como exploraciones bio-mórficas y bio-miméticas. Se
consideran exploraciones bio-mórficas las
investigaciones estéticas orientadas hacia la expresión
simbólica de la concepción bio-inspirada de la
arquitectura. Se definen como bio-miméticas las
prácticas orientadas hacia el estudio de los sistemas
naturales con el fin de desarrollar diseños mejor
adaptados a los complejos requerimientos de la
producción arquitectónica contemporánea.
En lo que concierne la primera tendencia señalada, desde
hace algunos años asistimos a la proliferación, en el
panorama arquitectónico contemporáneo, de nuevos
imaginarios formales en los que las representaciones
tradicionales de la arquitectura han sido reemplazadas
por objetos que encarnan, de manera literal, el espíritu
tecno-científico propio de la perspectiva computacional
en la arquitectura. Así, las analogías orgánicas en la
arquitectura digital se han traducido frecuentemente en
el desarrollo de arquitecturas basadas en la
representación simbólica de la concepción de los objetos
arquitectónicos como sistemas orgánicos y como
mecanismos cibernéticos (Fig. 13).
Por otra parte, detrás del desarrollo de muchas
44
Es interesante anotar que en los métodos de computación evolutiva la noción de fitness se ha relacionado con el
concepto de performance. En este sentido la metáfora de la selección natural ha sido empleada para caracterizar los
procesos de búsqueda estocástica y de selección de la solución mejor adaptada a un problema planteado.
Figura 13
El proyecto “I’ve Heard about” de R&Sie(n)
es un caso emblemático de diseño bio-
inspirado que opera fundamentalmente
como la expresión simbólica de sus
referencias. El proyecto, descrito como un
”experimento entrópico de urbanismo
auto-organizado”, plantea un modelo
algorítmico de crecimiento que emplea
como datos de entrada las necesidades del
habitante y la lectura de su
fisiología.Fuente: Digital Culture in
Architecture, 2010. A. Picon.
Figura 14
El proyecto Eden de Grimshaw & Partners
es un caso paradigmático de la
instrumentalización de las refrencias
biológicas en el diseño. En este caso la
geometría observada en un sistema
orgánico es aplicada a la estructura de los
domos para desarrollar un sistema
material y estructuralmente eficiente.
Fuente: Performative Architecture, 2005. B.
Kolarevic & A.M. Malkawi (Eds).
110
aproximaciones bio-inspiradas en el diseño ha habido un real interés en el desarrollo de una
arquitectura realmente sistémica. Esta otra tendencia en el campo del diseño computacional se
ha caracterizado por el intento de llevar las metáforas biológicas en el diseño a un plano
altamente instrumental (Fig. 14). De este modo, el desarrollo de metáforas biológicas en este tipo
de exploraciones se ha concebido como una búsqueda orientada a reproducir los atributos
básicos de los organismos biológicos en la arquitectura. En este sentido la integración de
nociones heredadas de las ciencias biológicas, de la computación y otros campos de investigación,
como la vida artificial y la ciencia de materiales, se ha planteado como una investigación de
metodologías de concepción que facilitan la definición de escenarios complejos de diseño.
Independientemente de la discusión sobre la relevancia de una u otra aproximación, lo que
interesa de momento es señalar de qué manera la construcción bio-inspirada del diseño, sea en
términos de la investigación estética o instrumental de las referencias biológicas introducidas en
las elaboraciones de la arquitectura, aparece como uno de los resultados de pensar los problemas
de diseño desde el paradigama informacional.
En consecuencia, dos de los factores que han definido la agenda de algunas de las más
influyentes prácticas de la arquitectura digital han sido el desarrollo de metodologías de diseño
que integran una concepción sistémica y bio-inspirada de la arquitectura, y el desarrollo de
técnicas computacionales que corresponden a esta manera de pensar los problemas de la
profesión. En este sentido los modelos genéticos y emergentes, dos de las tendencias dominantes
en la arquitectura computacional, pueden pensarse como una extensión del pensamiento
sistémico en la arquitectura y, por lo tanto, como producto de pensar la profesión desde las
narrativas puestas en circulación por la cibernética. El análisis detallado de la relación entre estos
modelos y el paradigma cibernético es el tema de los capítulos 5 y 6.
4. Sistemas
111
4.14 Conclusión
Aquí se ha tratado de mostrar en qué sentido la concepción de la arquitectura como un fenómeno
holístico y auto-regulado, problema central planteado desde las primeras experiencias que dieron
origen a la pesrpectiva computacional en la profesión, se desprende de la concepción de los
problemas de la arquitectura como sistemas. Teniendo en cuenta el vínculo entre el pensamiento
sistémico y la cibernética, la caracterización de la arquitectura como un sistema aparece como
ejemplo paradigmático de la construcción de los problemas de la profesión en referencia a los
discursos de la información.
Lo anterior se ha reflejado fundamentalmente en la construcción de los problemas de la
arquitectura desde una lógica de causalidad relacional, que se ha asociado con la aspiración de
concebir los objetos diseñados como mecanismos similares en su funcionamiento a los
mecanismos cibernéticos. Por esta vía aquí se ha mostrado, por una parte, que la visión sistémica
en la arquitectura ha mantenido un vínculo directo con la concepción de los fenómenos como
sistemas comunicacionales y como sistemas de retroalimentación. Y por la otra, que lo anterior
es indisociable de la “biologización” de la arquitectura propia de muchas producciones de la
arquitectura computacional.
***
De este modo se ha señalado cómo es posible seguir el rastro de las narrativas cibernéticas en dos
de las más influyentes elaboraciones de la arquitectura en este campo: la construcción de sus
objetos como mecanismos genéticos y su concepción como fenómenos complejos. En los
siguientes capítulos se plantea un análisis en el que se estudia cómo, en referencia a los cambios
ontológicos propios de la perspectiva sistémica en la profesión, los arquitectos han explorado
metodologías de diseño alternativas mediante modelos genéticos y emergentes, investigaciones
que se han basado tanto en el empleo de técnicas computacionales, como en la construcción de
nuevas elaboraciones de los problemas de diseño que emanan del paradigma informacional.
112
5. Mecanismos genéticos
113
5. Mecanismos genéticos
5.1 Resumen
Como se vio en el capítulo precedente, diversos fenómenos físicos, sociales y naturales han sido
estudiados como fenómenos comunicacionales en referencia a los modelos y conceptos
promovidos por la cibernética. En las ciencias biológicas esta influencia se percibe claramente en
dos campos cuyos modelos y técnicas han sido una referencia crucial para las exploraciones
morfo-genéticas de la arquitectura: la biología molecular y la biología computacional. Detrás de
los modelos y nociones desarrollados en estos dos campos se encuentra una concepción del
organismo construida alrededor de conceptos como información, lenguaje, código y mensaje.
El desarrollo de la biología molecular en la segunda a mitad del siglo pasado constituye el
paradigma de este cambio en las representaciones de los fenómenos biológicos. Desde entonces
las explicaciones de los mecanismos de la herencia, y de otros fenómenos orgánicos como la
adaptación y el desarrollo, se han basado en gran medida en metáforas informacionales. La
construcción de los mecanismos genéticos como una suerte de sistema computacional, basada en
la concepción del ADN como un texto programado y de la información como el motor de la vida,
constituye uno de los ejemplos más relevantes de la influencia de la cibernética en la ciencia
contemporánea.
Además de reforzar los discursos sobre la información como esencia de todos los fenómenos
observables, esta concepción informacional de los mecanismos de la herencia contribuyó a la
consolidación del paradigma cibernético en otros campos de la biología. Este es el caso del
desarrollo de la biología computacional, una rama de la investigación en las ciencias de la vida en
la que diversos aspectos del funcionamiento de los sistemas naturales han sido estudiados desde
una perspectiva informacional, y simulados mediante técnicas computacionales.
Estos dos desarrollos en las ciencias biológicas han tenido un impacto importante en la
arquitectura digital. De acuerdo con las explicaciones de la herencia investigadas por la biología
molecular, una de las ideas más exploradas en las aproximaciones computacionales en la
arquitectura ha sido la representación de los objetos arquitectónicos como la materialización de
un conjunto de reglas contenidas en un programa. Esta aproximación al diseño ha sido
investigada mediante la adopción de una serie de técnicas desarrolladas en la biología
computacional, y se ha basado en la elaboración de analogías entre la concepción algorítmica de
la arquitectura y fenómenos biológicos como la codificación genética, la evolución y el desarrollo.
114
El objetivo de este capítulo es señalar la importancia de las representaciones informacionales de
los fenómenos orgánicos para el desarrollo de los modelos morfo-genéticos en la arquitectura
computacional. Lo anterior teniendo en cuenta el papel protagónico del paradigma cibernético en
la representación de los sistemas biológicos como fenómenos comunicacionales. Por esta vía se
pretende mostrar cómo los modelos genéticos mantienen un vínculo con las visiones cibernéticas
de la arquitectura exploradas en los capítulos anteriores, con su concepción como un sistema
dinámico, integrado, informacional y capaz de exhibir propiedades similares a las de los
organismos.
En la primera parte del capítulo se propone una mirada al influjo de los discursos de la
información en el desarrollo de la biología molecular moderna, y a la manera en que las visiones
del organismo resultantes fueron determinantes para la consolidación del campo de la biología
computacional. En base a este análisis, en la segunda parte del capítulo se analiza cómo los
modelos desde los que se ha explorado el diseño alrededor de metáforas genéticas, se han
construido en referencia a las representaciones informacionales (y las técnicas computacionales
de simulación) de los sistemas orgánicos propias de estos dos campos. De esta manera se
pretende mostrar cómo las exploraciones morfo-genéticas en la arquitectura computacional se
han desarrollado en gran medida alrededor de la ontologización de una de las premisas centrales
de la teoría cibernética, a saber, la idea según la cual todos los fenómenos en el mundo son en su
esencia información.
5.2 La biología molecular y el pensamiento informacional
Sin duda algunos de los imaginarios dominantes en la cultura tecno-científica contemporánea han
emanado de la posibilidad de manipular y transformar la naturaleza mediante el conocimiento y
control preciso del ADN, molécula considerada como la materia prima de la vida. Detrás de estos
imaginarios se encuentra una importante transformación en el estudio de los mecanismos de la
herencia en los organismos, que a partir de los años cincuenta del siglo pasado, comenzaron a ser
pensados como un sistema de información. El desarrollo de la biología molecular estuvo
determinado por este cambio fundamental, a partir del cual diversas explicaciones de los
fenómenos orgánicos han mantenido una estrecha relación con los discursos de la información. La
biología molecular moderna se constituyó alrededor de la construcción del ADN como un código,
idea que en las ciencias naturales ha constituido el paradigma de la representación de la vida
como un fenómeno esencialmente informacional.
5. Mecanismos genéticos
115
Como su nombre lo indica, la biología molecular se ocupa del estudio de los organismos a la
escala de la molécula. Una definición más precisa, propuesta por Michel Morange, se refiere a
este campo como “el conjunto de técnicas y descubrimientos que han permitido el análisis
molecular de los procesos más íntimos de la vida, los que aseguran la perennidad y la
reproducción.” (Morange, 1994, p. 5)
Esta disciplina científica surgió del vínculo de dos campos de las ciencias de la vida antes
distantes: la genética y la bioquímica. Según Morange, en la biología molecular confluyen el
estudio de los genes, problema central de la genética, y el estudio de las proteínas y las enzimas,
terreno de investigación propio de la bioquímica.
45
Para Morange, la biología molecular nació
cuando cientos de genetistas comenzaron a interesarse por los mecanismos de acción de los
genes, al tiempo que los bioquímicos intentaban comprender la acción de los genes en la
producción de las proteínas y las enzimas (Morange, 1994, p. 5). Más precisamente, señala el
autor, la biología molecular nació cuando se definieron las relaciones entre estos dos campos, es
decir, cuando “el gen es identificado con una macro-molécula, el ADN…[l]a estructura de ésta es
determinada…[y su] rol en la síntesis de proteínas caracterizada.” (Morange, 1994, p. 6)
En base a estos tres factores, la biología molecular se desarrolló alrededor de la comprensión de
las interacciones entre varios sistemas de la célula, especialmente las relaciones entre el ADN, el
ARN y la síntesis de proteínas. A partir del dogma central establecido por Francis Crick – según el
cual el material genético es transcrito en el ARN y posteriormente traducido en proteínas – la
biología molecular se estableció como el estudio de los procesos de replicación, transcripción y
traducción del material genético a nivel molecular.
Como se verá más adelante, la propuesta de Crick se encuentra en la base del desarrollo de una
serie de metáforas en las que los procesos estudiados por la biología molecular fueron concebidos
como sistemas cibernéticos, como códigos cifrados o como un conjunto de instrucciones. En su
extenso trabajo sobre el origen de la representación informacional del ADN, Lily E. Kay ejemplifica
lo anterior mediante un ejercicio en el que (parafraseando un análisis de Richard Boyde sobre el
papel de la teoría de la información en la psicología cognitiva) señala una serie de aspectos que
45
Para Morange, “[l]a biología molecular nace cuando el problema de la naturaleza de los genes, de su mecanismo de
acción, comienza a cautivar el espíritu de cientos de genetistas, cuando estos no se contentan de una visión casi
abstracta del rol y la naturaleza de los genes. También nace cuando los bioquímicos intentan comprender cómo las
proteínas y las enzimas, agentes esenciales de la especificidad de la vida, son fabricadas en las células y cuál es la
interacción de los genes en este proceso.” (Morange, 1994, p.5).
116
indican de qué manera los mecanismos genéticos fueron reelaborados dentro de un nuevo
paradigma. De esta reelaboración se desprenden los siguientes puntos:
46
1) El argumento de que la herencia es una forma de “procesamiento de información” y que el
genoma es una especie de computador. 2) La sugerencia que ciertos procesos genéticos son “pre-
programados”. 3) Disputas sobre el problema de la existencia de un lenguaje genómico interno en
el que reorganizaciones combinatorias son llevadas a cabo. 4) La sugerencia que cierta
información esta “codificada” o “indexada” en el genoma. 5) Disputas sobre hasta qué punto la
expresión genética es producida por la maduración de nuevas “subrutinas” “preprogramadas”, en
oposición a la adquisición de “rutinas heurísticas” aprendidas, o el desarrollo de mayores
“capacidades de almacenamiento” o mejores “procesos de adquisición de información”. 6) La
visión de que el desarrollo biológico es una “máquina auto-organizada.” 7) La visión según la cual
la regulación genética es un fenómeno de “retroalimentación.” (Kay, 2000, pp. 24-25)
El ejemplo anterior muestra la profunda penetración del paradigma informacional en las
explicaciones de los fenómenos estudiados por la biología molecular, explicaciones que han
resultado de la concepción de los mecanismos de la herencia como un sistema basado en la
codificación y transmisión de información. Tal caracterización de estos procesos biológicos ha
estado, en gran parte, en el origen de la generalización de la visión informacional en la
construcción de diversos fenómenos orgánicos.
5.3 Del pensamiento informacional en la biología a la biología computacional
Es importante anotar que la representación de los sistemas biológicos como sistemas de
información ha sido tan relevante para la biología como lo ha sido para la computación. Este
argumento, que resulta útil para pensar la estrecha relación que desde mediados del siglo pasado
se ha establecido entre las ciencias biológicas y las ciencias de la información, ha sido expuesto
por Katherine Hayles. Según la autora de How We Became Posthuman, con la introducción de los
discursos de la información en la biología, a la vez que la informática sirvió como modelo para las
ciencias de la vida, las representaciones informacionales de los organismos también sirvieron
como modelo para el desarrollo de la computación (Hayles, 1999).
46
La autora retoma el texto de Boyde, reemplazando los conceptos usados por él por conceptos clave de la biología
celular. Las palabras en cursiva corresponden a los conceptos introducidos por Kay.
5. Mecanismos genéticos
117
En efecto la comprensión de los organismos como sistemas de información ha estado
estrechamente relacionada con el desarrollo de modelos computacionales, que han sido cruciales
tanto para el estudio de los fenómenos biológicos, como para el desarrollo de la informática. El
trabajo de John von Neumann sobre los autómatas celulares, que de alguna manera anticipó el
desarrollo de la biología computacional, constituye el mejor ejemplo de esta relación.
De acuerdo con la definición propuesta por Stephen Wolfram, los autómatas celulares
constituyen una idealización matemática de sistemas físicos donde el espacio y el tiempo son
considerados como factores discretos. El modelo consiste en una matriz (esta puede ser
unidimensional, bidimensional o tridimensional) de espacios (o células) donde a cada espacio
corresponde una variable discreta y el estado global del autómata celular es determinado por los
valores de las variables en cada sitio. El estado de cada célula en la matriz es actualizado
individualmente y de manera paralela, paso a paso, y según un conjunto finito de reglas – que
determinan el valor de cada una de las células en función de los valores de sus células vecinas en
el paso anterior (Wolfram, 1994, pp. 5-6).
Este modelo fue desarrollado por von Neumann como una representación simplificada de su
descripción de un autómata capaz de auto-reproducirse. Debido a la imposibilidad de producir un
modelo experimental como el descrito en su artículo Central and Logical Theory of Automata, von
Neumann decidió, siguiendo el consejo de su colega Stanislaw Ulam, presentar su “idea
reduccionista del desarrollo biológico” a través de un modelo bidimensional discreto (Berto &
Tagliabue, 2012)
Según el análisis de Kay, el interés de von Neumann “en la biología, en general, y en la genética,
en particular, estuvo estrechamente vinculado con su misión de desarrollar máquinas auto-
reproductoras.” (Kay, 2000, p. 106) Inspirándose en el trabajo de McCulloch y Pitts sobre las redes
neuronales, el modelo de los autómatas celulares apuntaba a demostrar que es posible construir
mecanismos artificiales capaces de exhibir algunas de las características principales de los seres
vivos, por ejemplo, su capacidad para reproducirse y evolucionar. Por este motivo, el trabajo de
von Neumann sobre los autómatas celulares ocupa un lugar relevante en la consolidación del
tratamiento de los fenómenos biológicos como sistemas de información. Especialmente en lo
concerniente a la construcción de las visiones informacionales de los mecanismos de la herencia
alrededor de las cuales nació la biología molecular.
118
Kay sostiene que desde que fue cautivado por el trabajo de McCulloch y Pitts (cuyo problema
central era la comparación entre las máquinas de cálculo y el sistema nervioso humano),
47
von
Neumann se acercó a la comunidad biomédica y comenzó a participar de manera activa en
diversas conferencias que reunían representantes de campos como la física, las matemáticas y la
cibernética.
El interés de von Neumann por la genética aparece claramente en su artículo Central and Logical
Theory of Automata.
48
En dicho artículo, von Neumann propone un modelo cinemático para la
producción de un autómata capaz de auto-reproducirse mediante el uso de una serie de partes
elementales y de un conjunto de instrucciones, que el autómata es capaz de reproducir.
49
En el
modelo propuesto la función de las instrucciones es considerada como un aspecto análogo a la
función de los genes, mientras que el proceso de copia de las instrucciones se asocia con los
mecanismos de duplicación del material genético. En palabras de von Neumann, “es bastante
claro que la instrucción…efectúa aproximadamente las funciones de un gen. También es claro que
el mecanismo de copia [de las instrucciones] realiza el acto fundamental de reproducción, de
duplicación del material genético, que es claramente la operación fundamental en la
multiplicación de las células vivientes.” (Von Neumann, 1962, p. 317)
Kay explica que tras su intercambio con la comunidad de científicos que estudiaban los
mecanismos genéticos, von Neumann se interesó por la explicación de la relación gen-enzima del
microbiólogo Sol Spiegelman, mientras que este último fue cautivado por las ideas de von
Neumann sobre sus máquinas auto-reproductoras (Kay, 2000, pp. 107-108).
Así, mientras el encuentro con la comunidad biomédica habría dado a von Neumann la confianza
de que su modelo correspondía a mecanismos presentes en la naturaleza, el modelo elaborado
47
Este es un tema recurrente en varios artículos de von Neumann entre los cuales se encuentran The computer and the
Brain, Theory of Self-reproducting Automata y el arriba mencionado Central and Logical Theory of Automata.
48
Artículo que, dicho sea de paso, es la transcripción de la presentación de von Neumann en el simposio Cerebral
Mechanisms in Behavior, que contó entre sus organizadores a figuras como George Beadle, Max Delbruck y Linus
Pauling, científicos que jugaron un papel importante en la definición del paradigma informacional en la biología
molecular.
49
Este modelo, de acuerdo a la descripción propuesta por Kemeny, se componía de tres unidades conceptuales que
aparecen claramente en el modelo de autómatas celulares: un sistema nervioso para el control lógico, un cuerpo
compuesto de células que permite transformar otras células circundantes, y células transmisoras, vistas como un
conjunto de cromosomas y consideradas como la unidad crucial de la máquina, para transportar mensajes desde los
centros de control (citado en Kay, 2000, p.112).
5. Mecanismos genéticos
119
por él ayudaba a consolidar las visiones informacionales del funcionamiento del organismo,
promovidas por diferentes científicos vinculados al naciente campo de la biología molecular.
Por lo tanto no es extraño que el modelo de los autómatas celulares haya sido ampliamente
utilizado, desde hace varias décadas, para el estudio de diversos sistemas biológicos. Por ejemplo,
Stephen Wolfram, cuyo ensayo A New Kind of Science consiste en una extensa investigación sobre
los autómatas celulares, ha argumentado que estos programas computacionales simples pueden
reproducir varios aspectos de los sistemas naturales, e incluso capturar los mecanismos genéticos
que generan a los organismos. Según la visión de Wolfram, la idea de pensar en términos de
programas parece evidente en el caso del organismo, esto gracias a la similitud entre el material
genético y un programa computacional: “[l]a idea general de pensar en términos de programas
es…más obvia para los sistemas biológicos que para los sistemas físicos…en un sistema biológico
hay material genético que puede ser pensado casi directamente como lo que provee un programa
para el desarrollo del organismo.” (Wolfram, 2002, p. 383)
Siendo un ejemplo paradigmático de la representación de los fenómenos biológicos como
sistemas informacionales y, al mismo tiempo, de la producción de técnicas computacionales
alrededor de metáforas biológicas, el modelo de los autómatas celulares aparece como un
antecedente fundamental en el desarrollo del campo de la biología computacional. De hecho, el
estrecho vínculo entre el modelo propuesto por von Neumann y los inicios de la visión
informacional de los mecanismos de la herencia, aparece como un factor clave que ayuda a situar
el origen de la biología computacional en los orígenes mismos de la biología molecular.
5.4 La biología computacional
El desarrollo del campo de la biología computacional constituye el mejor ejemplo de la relación,
señalada por Hayles, que ha existido entre la informática y las representaciones informacionales
de la vida. Este terreno de investigación, que se ha enfocado en el estudio y simulación de los
fenómenos biológicos en base a su representación como sistemas de información, ha sido el
escenario del desarrollo de una serie de técnicas que han sido ampliamente aplicadas al estudio
de múltiples problemas en diversas disciplinas, incluido el diseño arquitectónico.
Como lo demuestra el trabajo de von Neumann mencionado arriba, la idea de concebir los
organismos como procesadores de información, cuyo funcionamiento es considerado análogo al
de los sistemas computacionales, es tan antigua como la computación misma. Melanie Mitchell
insiste sobre esta idea al recordar que algunos de los precursores de la informática, entre ellos
120
Wiener, Turing y, desde luego, von Neumann, estuvieron motivados por visiones de crear
programas inteligentes, capaces de reproducirse y de adaptarse a un ambiente cambiante. Es por
esta razón que los pioneros de la informática se interesaron tanto por la electrónica como por la
biología y la psicología, y observaron los sistemas naturales como modelos para sus ideas
(Mitchell, 1996, p. 1).
Con la introducción del pensamiento informacional en la biología estas visiones solamente podían
reforzarse. El resultado ha sido una retroalimentación permanente entre los modelos construidos
en la computación y en la biología, donde, como se ha visto arriba, el modelo informacional ha
servido para explicar los mecanismos biológicos y las explicaciones informacionales de la biología
se han convertido en metáforas para el desarrollo de modelos computacionales –algunos de los
cuales se han propuesto como modelos universales para el estudio de diversos fenómenos
naturales y artificiales.
La visión de los mecanismos genéticos como un sistema informacional subyace al desarrollo de
una variedad de modelos en el campo de la biología computacional, concebidos como
herramientas para el estudio de diversos fenómenos orgánicos. Lo anterior es confirmado por
varios autores que han coincido al situar el origen de este campo de investigación en los
comienzos mismos de la biología molecular. Por ejemplo, Paul Hogeweg afirma que con el
nacimiento de la biología molecular “fue reconocido que un tema central de investigación debía
ser cómo los sistemas vivientes recopilan, procesan, almacenan y usan información” y que este
enfoque, basado en conceptos relacionados con los discursos de la información, aparece reflejado
“en la terminología «código genético», el dogma central como el flujo unidireccional de
información, etc.” (Hogeweg, 2011, p. 1)
Según Hogeweg, en base a los desarrollos de la biología molecular, se consideraba que “una de las
propiedades determinantes de la vida era el procesamiento de información en varias formas, por
ejemplo, la acumulación de información durante la evolución, la transmisión de información
desde el ADN a procesos intracelulares, y la interpretación de tal información en múltiples
niveles.” (Hogeweg, 2011, p. 1) En consecuencia, la biología computacional surgió como una rama
de la biología orientada hacia el desarrollo de técnicas informáticas cuyo objetivo ha sido el
estudio y simulación de los sistemas naturales, concebidos como sistemas informacionales
(Hogeweg, 2011, Trifonov, 2000, Ouzounis & Valencia, 2003, Searls, 2010, Back, et al., 1997).
Hogeweg, uno de los pioneros de la biología computacional, explica que este terreno de
investigación se consideró, de manera general, como “el estudio de los procesos informacionales
en los sistemas bióticos.” Según el autor, el campo de la bio-informática pretendía “combinar el
5. Mecanismos genéticos
121
análisis de patrones y la modelización dinámica y aplicarlos al reto de esclarecer la generación de
patrones y el procesamiento de información en los sistemas bióticos en múltiples niveles.”
(Hogeweg, 2011, p. 2)
En relación con este objetivo, la biología computacional ha envuelto el desarrollo y aplicación de
métodos teóricos y de análisis de datos, de modelización matemática y de simulacion
computacional para el estudio de los sistemas biológicos.
50
Dentro de este campo se han
desarrollado una variedad de modelos, algunos de los cuales han encontrado aplicaciones en
esferas muy diferentes al estudio de los procesos biológicos. Entre estos se cuentan los algoritmos
genéticos y los sistemas de Lindenmayer (dos modelos que, junto con los autómatas celulares,
han sido ampliamente explorados como herramienta de diseño en las prácticas de arquitectura
computacional). Una mirada a estos dos modelos permite entender mejor la relación entre la
biología computacional y el paradigma de investigación promovido por la biología molecular.
5.5 Algoritmos genéticos
Los algoritmos genéticos, creados por John Holland en la década de 1970, fueron concebidos para
el estudio del fenómeno de adaptación como ocurre en la naturaleza. El modelo es una técnica
algorítmica que permite recrear los mecanismos de adaptación en sistemas computacionales, sea
para la simulación del comportamiento de los organismos o como método para resolver
diferentes tipos de problemas (Holland, 1992, p. 3).
Desde la perspectiva adoptada por Holland, la evolución biológica es considerada como un
espacio de búsqueda entre un gran número de posibles soluciones (por ejemplo el conjunto de
secuencias genéticas) para la producción de organismos altamente adaptados a un medio
ambiente cambiante. De este modo, la evolución es concebida en términos computacionales
como un método para encontrar soluciones entre un número amplio de posibilidades. Así, los
organismos son construidos como mecanismos adaptativos basados en reglas, que se reproducen
y evolucionan a través de un proceso de selección determinado por la retroalimentación
permanente entre una solución candidata y un ambiente dado. Mediante este proceso se define
la capacidad de adaptación de cada solución analizada. Las soluciones que presentan un alto nivel
50
Al respecto, Timothy Lenoir y Casey Alt sostienen que la genómica, la biología computacional y la bio-informática han
reestructurado el campo de la biología al introducir una serie de herramientas de las ciencias de la información en el
repertorio de las técnicas desarrolladas por la biología molecular. El resultado habría sido una nueva biología unida al
análisis de datos más que una ciencia de la observación. Por lo tanto, concluyen los autores, en términos disciplinares,
la biología se ha convertido en una ciencia de la información (Lenoir & Alt, 2003, p. 325).
122
de adaptación son seleccionadas para producir una mayor descendencia, de modo que la
población de soluciones analizadas tiende a evolucionar hacia mayores niveles de adaptación.
Además de la referencia a los mecanismos de selección y adaptación en los organismos, el modelo
de Holland se construye en base a una serie de metáforas genéticas. Por ejemplo, en la
terminología de los algoritmos genéticos una solución candidata a un problema, que es codificada
como una secuencia de símbolos es llamada “cromosoma”. Los dígitos binarios se definen como
“genes”, los unos y ceros en una secuencia se llaman “alelo” y el código que define una solución
candidata o “cromosoma” es considerada como un “genotipo”. De la misma manera, ciertas
operaciones propias de la computación (iteración, encapsulamiento, búsqueda y variación
aleatoria) son empleadas en el modelo de Holland en referencia directa a operadores genéticos
como la mutación, la recombinación y la selección.
Para explicar el marco formal de su modelo, Holland también recurre a una analogía entre los
mecanismos genéticos y la computación. El autor explica que una manera de entender el modelo
propuesto es ver la producción de genotipos como un procedimiento de muestreo (sampling
procedure), en el cual el espacio de prueba (sampling space) sería el conjunto de todos los
genotipos posibles y el resultado de cada prueba sería el performance del genotipo particular
analizado (Holland, 1992, p. 12). En la definición del modelo propuesta por Mitchell, este método
es descrito como “un método para moverse de una población de cromosomas…a una nueva
población usando una especie de «selección natural» junto a los operadores inspirados en la
genética de recombinación, mutación e inversión...El operador de selección escoge los
cromosomas en la población a los que les será permitido reproducirse, y, en promedio, los
cromosomas más aptos producen más descendencia que los menos aptos.” (Mitchell, 1996, p. 3)
Aunque el modelo desarrollado por Holland se inspira fundamentalmente de los procesos
evolutivos en los organismos, estos procesos se conciben en relación directa al dogma central
establecido por Crick. Lo anterior en la medida que se parte de la existencia de una estructura de
base, el ADN, que es considerado como el soporte estable y transmisible de la información
genética, y del supuesto que esta estructura define las funciones biológicas de un organismo. Así,
los procesos evolutivos, concebidos como el resultado de la acción permanente de ciertos
operadores en la estructura genética de los organismos, son recreados por Holland en
concordancia con los modelos informacionales de la biología molecular, es decir, como
mecanismos computacionales, códigos y operaciones algorítmicas.
5. Mecanismos genéticos
123
5.6 Sistemas de Lindenmayer
El caso de los sistemas de Lindenmayer, también conocidos como L-Systems, es similar. A este
modelo, que se concibió como un método de análisis del desarrollo en las plantas, también
subyace la premisa que las funciones del organismo se encuentran codificadas en un programa.
Los L-Systems, fueron introducidos en 1968 por Aristid Lindenmayer. Se trata de un marco
teórico, basado en el empleo de algoritmos matemáticos que exhiben las características del
crecimiento biológico, para el estudio del desarrollo de los organismos multicelulares simples en
términos de la división, el crecimiento y la muerte de las células (Prusinkiewicz, 1996, p. 4).
Originalmente el énfasis de los L-Systems fue el estudio de las relaciones entre células u otros
módulos de las plantas, aunque posteriormente ha sido empleado para estudiar el desarrollo de
organismos más complejos. Asimismo, varias interpretaciones geométricas han sido propuestas
ulteriormente para convertir el modelo en una herramienta gráfica computacional para la
visualización realista de la estructura de las plantas y de los procesos de emergencia y desarrollo
(Prusinkiewicz & Lindenmayer, 1990, pp. vi-vii). Al igual que otros modelos elaborados en el
campo de la biología computacional, más recientemente los L-Systems han sido explorados como
herramienta generativa en otros campos de investigación, particularmente en la teoría de
fractales y en el diseño.
La formulación de los L-Systems estuvo estrechamente relacionada con las teorías formales del
lenguaje y con la teoría de algoritmos; entre sus modelos de referencia se encuentran algunos
sistemas recursivos que incluyen los autómatas celulares, los sistemas de generación de fractales
de Koch y las gramáticas formales de Chomsky. Al igual que en estos modelos de referencia, en un
sistema de Lindenmayer los componentes de un organismo son simbolizados como cadenas de
símbolos, y la representación del desarrollo de una forma orgánica es generada mediante la
aplicación sistemática, en pasos discretos, de mecanismos de reescritura. Este es el aspecto
central de los L-Systems, que corresponden a una técnica para definir objetos complejos (o
conjuntos de símbolos) mediante el remplazo sucesivo de las partes de un objeto inicial simple
usando un conjunto finito de reglas. El sistema se basa en la aplicación recursiva de reglas que
definen un proceso de reescritura de los símbolos en una cadena, formalización que corresponde
a la representación simbólica del proceso de desarrollo y crecimiento de un organismo.
51
51
En el modelo cada configuración de los estados en una matriz dada es considerada como una descripción
momentánea del organismo; en consecuencia, la vida entera de un organismo es descrita por una secuencia que
corresponde a la matriz. Dicha secuencia está determinada por una función de transición entre diferentes estados que
se aplica a todas las células en la matriz: “Una transición de estado puede consistir en un cambio del símbolo del estado
124
La representación del organismo a través de un lenguaje formal que expresa las reglas generativas
del desarrollo, revela la clara conexión del modelo con la visión informacional de los organismos,
que se desprende de los desarrollos propios del origen de la biología molecular. Pero, al igual que
en el caso de los algoritmos genéticos, esta conexión aparece de manera mucho más clara si se
tiene en cuenta la relación que establece Lindenmayer entre su modelo y las explicaciones de la
herencia tal como se desprenden del dogma central.
Lindenmayer plantea que, puesto que en los organismos avanzados las células parecen ser las
únicas unidades con continuidad genética, se asume que estas son las unidades básicas para la
descripción del desarrollo. Lo anterior implica que para Lindenmayer existe un programa o
algoritmo del desarrollo codificado en las células. Teniendo en cuenta que todas las células en el
organismo son descendientes de una única célula, la pregunta que se plantea el autor es “qué
programa contiene esta célula que le permite especificar el curso de desarrollo que el organismo
sigue”, o, más precisamente, “qué instrucciones son necesarias para producir los tiempos y la
organización espacial de los procesos celulares…durante toda la vida del organismo.”
(Lindenmayer, 1975, p. 4) Es decir que, partiendo de la representación de los mecanismos de la
herencia como un proceso de transmisión de información, en los L-Systems el desarrollo es
concebido como una especie de programa computacional que funciona a nivel celular y a través
de operaciones lógicas.
***
Como se ha visto en los dos ejemplos anteriores, los modelos desarrollados en el campo de la
biología computacional comparten ciertos aspectos que reflejan claramente la concepción
informacional de los fenómenos orgánicos. Esto se refleja en la definición de un marco de trabajo
en el cual los fenómenos estudiados a través de estas técnicas son concebidos como sistemas
basados en reglas; es decir, como sistemas que comparten las mismas características de un
sistema computacional en la medida que constituyen un “un conjunto finito de elementos y/o
símbolos que pueden ser operados usando un conjunto finito de reglas de producción y/o de
operadores.” (Singh & Gu, 2012, p. 190)
Desde luego, a este tipo de caracterización de los sistemas biológicos subyace la concepción de
los fenómenos vehiculada por la teoría cibernética.
de una célula en un nuevo símbolo, o puede representar la división de la célula permitiendo la substitución de más de
un símbolo en la matriz…o puede simbolizar la muerte de una célula permitiendo el reemplazo de un espacio vacío por
un símbolo.” (Lindenmayer, 1975, p. 6)
5. Mecanismos genéticos
125
5.7 La cibernética y el pensamiento informacional en la biología
En las páginas precedentes se ha visto que la concepción informacional de los mecanismos
genéticos constituyó el problema central alrededor del cual se desarrolló la biología molecular y,
en consecuencia, la biología computacional. Detrás de este cambio en las explicaciones y modelos
de la biología se encuentra un aspecto crucial, que se deduce de los temas discutidos arriba. A
saber, que estas transformaciones han sido el resultado del cambio de paradigma en el
conocimiento resultante del paradigma cibernético.
Anteriormente se hizo referencia al dogma central postulado por Crick, según el cual el material
genético es transcrito en el ARN y posteriormente traducido en proteínas. Esta premisa, alrededor
de la cual se desarrolló la biología molecular, es particularmente representativa de cómo el
concepto de información se consolidó como un aspecto crucial para las representaciones de los
mecanismos orgánicos en este campo. Como se ha visto, el problema central planteado por la
biología molecular fue la caracterización de los procesos genéticos como un problema de
transmisión de información y del ADN como un código; para Crick la esencia de la síntesis de
proteínas se explicaba en términos de “la circulación de materia, y principalmente el flujo
unidireccional de la información…del ADN a las proteínas.” (Kay, 2000, p. 29)
En este sentido la formulación del dogma central habría sido una estrategia para reorganizar la
biología molecular alrededor del modelo informacional, modelo que funcionaba “como un medio
de demarcación de los límites disciplinares de la nueva biología molecular.” (Kay, 2000, p. 29)
Según Kay, Crick “formalizó el discurso de la información como un medio de imponer un orden
temático e imperativos retóricos al problema central de la síntesis de proteínas, la reproducción y
el territorio disciplinar de la biología molecular.” (Kay, 2000, p. 29) De esta manera la visión
comunicacional de los fenómenos promovida por el pensamiento cibernético se localizó en el
centro de la agenda de investigación de la biología molecular.
Este cambio en la concepción de los mecanismos de la herencia – aunque esto ocurriera
principalmente en un plano metafórico – dio paso a su representación como un sistema en el que
el material genético está codificado en el ADN y cuyo funcionamiento sería análogo al de un
programa computacional-celular, teleológico y auto-regulado. Es decir que con esta redefinición
de los mecanismos genéticos la especificidad biológica se convirtió en informacional, y conceptos
126
como información, código y mensaje eventualmente se convirtieron en conceptos biológicos (Kay,
2000, p. 22).
Este cambio aparece representado en la manera en que una serie de conceptos propios del
modelo cibernético se convirtieron en una referencia clave para las explicaciones de la biología
molecular durante las décadas posteriores a la segunda guerra mundial.
Para Henry Quastler, uno de los primeros científicos que consideraron pensar los problemas
biológicos en referencia a los discursos de la información, la estrategia de recurrir a conceptos
como “información, mensajes, textos, códigos, sistemas cibernéticos, programas, instrucciones,
alfabetos, palabras…sirvió como una potente metáfora para las viejas ideas sobre la especificidad
química y biológica y como una (re)validación de la naturaleza molecular como un texto.” (Citado
en Kay 2000, p.26)
Carl R. Woese da aun mayor importancia a la caracterización cibernética de los mecanismos de la
herencia al describir el ADN y el ARN como moléculas informacionales gobernadas por reglas de
procesamiento de información. Para Woese la relevancia de la caracterización cibernética en la
biología molecular no se encuentra en “construcciones retóricas alrededor de hechos científicos”,
sino en la producción de un marco de investigación definido por “modelos cibernéticos, temas
informacionales, representaciones lingüísticas y comunicacionales de los ácidos nucléicos y de la
síntesis de proteínas en el trabajo experimental e interpretativo de los biólogos moleculares
desde los años 1950.” (Kay, 2000, p. 18).
El punto señalado por Woese aparece claramente reflejado en el trabajo de algunos de los más
notables científicos involucrados en el desarrollo de la biología molecular.
François Jacob, por ejemplo, insiste sobre el impacto de la descripción de los mecanismos
genéticos en términos de información, mensaje y código, al igual que en términos de la
comparación entre el código genético y un programa computacional. Este es un aspecto central
de su trabajo de investigación, que se refleja en su descripción de la herencia como un sistema
análogo al funcionamiento de un ordenador. Según Jacob “[l]a herencia funciona como la
memoria de un computador…órganos, células y moléculas están unidas por una red de
comunicación.” (Citado en Kay, 2000, p.17)
Jacques Monod también emplea una descripción similar del organismo. Monod describe el
organismo como “un sistema cibernético que gobierna y controla la actividad química en
numerosos puntos.” Haciendo eco de algunos de los temas recurrentes en el trabajo de Wiener,
las regulaciones gen-enzima son descritas por Monod como “sistemas comparables a los
5. Mecanismos genéticos
127
empleados en la automatización de circuitos eléctricos, donde la mínima cantidad de energía
consumida por un relé puede desencadenar una operación de gran escala como, por ejemplo, el
lanzamiento de un misil” (Citado en Kay, 2000, p.17)
Otro caso bien conocido recuerda la importancia de la criptografía para las construcciones de la
cibernética durante la segunda guerra mundial. En este sentido, para George Beadle los avances
de la genética eran comparables al descubrimiento de la piedra de Rosetta. Para Beadle “[e]l
lenguaje desconocido era el del ADN. La ciencia ahora puede traducir al menos unos pocos
mensajes escritos en [el lenguaje del ADN] en lenguaje químico de sangre, hueso, nervios y
músculos.” (Citado en Kay, 2000, p.17) Robert Sinsheimer también da gran importancia a la
representación escritural de los cromosomas, descritos en consecuencia como un almacén de
información y como un libro de la vida.
52
Estos pocos ejemplos parecen suficientes para explicar de qué manera las ideas cibernéticas
dieron forma a la visión informacional de los organismos, visión alrededor de la cual se estructuró
la agenda de investigación de la biología molecular, agenda que se encuentra en el origen de una
serie de representaciones informacionales de la vida determinantes en diferentes ramas de la
biología.
Como se vio arriba, en la consolidación de la visión informacional en la biología también ha jugado
un papel importante la retroalimentación entre los modelos elaborados en las ciencias de la vida
alrededor de este paradigma y la construcción de metáforas biológicas en la informática. Esta
retroalimentación, crucial para el desarrollo de la biología computacional, fue un aspecto central
en el trabajo de cibernéticos como Wiener y Ashby, quienes fundaron sus ideas en un marco
conceptual para el estudio de los organismos y los servomecanismos como sistemas análogos.
La relevancia de este aspecto del trabajo de los cibernéticos también se percibe en el estudio de
los sistemas orgánicos. El mejor ejemplo de lo anterior es la investigación sobre los autómatas
celulares de von Neumann, cuyo trabajo sobre los autómatas capaces de auto-reproducirce se
inscribe dentro de la misma línea de las analogías orgánicas empleadas por Wiener y Ashby.
Además de su importancia en la historia de las ideas cibernéticas, el desarrollo del modelo de von
Neumann también representa un caso paradigmático del influjo de los modelos cibernéticos en el
desarrollo de las visiones informacionales de la biología.
52
Sinsheimer argumenta que “En este libro hay instrucciones, en un curioso y maravilloso código, para hacer un ser
humano…es un triunfo mayor de la biología en las pasadas dos décadas que hemos comenzado a entender el contenido
de estos libros y el lenguaje en el que están escritos.” (Citado en Kay, 2000, p.17)
En base a lo expuesto arriba se puede afirmar, en
concordancia con el argumento de diversos
historiadores y sociólogos de la cie
conceptual que ha definido una buena parte de la
investigación en las ciencias de la vida en los últimos
cuarenta años fue planteado en gran medida alrededor
de conceptos heredados del pensamiento de científicos
como Wiener y Shannon.
Teniendo en cuenta
este marco de referencia
continuación se propone un análisis de cómo los
modelos morfo-
genéticos de diseño se han construido
alrededor de analogías orgánicas elaboradas en
referencia a las representaciones informacionales de la
biología.
5.8 El paradigma genético en la arquitectura
La representación de los objetos arquitectónicos como
la materialización de un conjunto de reglas contenidas
en un programa ha sido una de las ideas más exploradas
en las prácticas de arquitectura computaci
Consecuentemente, l
os métodos algorítmicos de diseño
han ocupado un lugar central en los modelos
elaborados. En esta línea de investigación ha
fundamental el trabajo de
algunos teóricos del diseño
como George Stiny, William Mitchell y Kostas Ter
quienes
han investigado profundamente
la c
odificación de la arquitectura, de
partir de sistemas
formales (Fig
de exploraciones mantie
nen un vínculo cercano con l
discursos de la información (p
or ejemplo, en el caso de
Stiny y Mitchell, a través de su vínculo con las
128
En base a lo expuesto arriba se puede afirmar, en
concordancia con el argumento de diversos
historiadores y sociólogos de la cie
ncia, que el marco
conceptual que ha definido una buena parte de la
investigación en las ciencias de la vida en los últimos
cuarenta años fue planteado en gran medida alrededor
de conceptos heredados del pensamiento de científicos
este marco de referencia
, a
continuación se propone un análisis de cómo los
genéticos de diseño se han construido
alrededor de analogías orgánicas elaboradas en
referencia a las representaciones informacionales de la
5.8 El paradigma genético en la arquitectura
La representación de los objetos arquitectónicos como
la materialización de un conjunto de reglas contenidas
en un programa ha sido una de las ideas más exploradas
en las prácticas de arquitectura computaci
onal.
os métodos algorítmicos de diseño
han ocupado un lugar central en los modelos
elaborados. En esta línea de investigación ha
sido
algunos teóricos del diseño
como George Stiny, William Mitchell y Kostas Ter
zidis,
han investigado profundamente
la cuestión de
odificación de la arquitectura, de
su concepción a
formales (Fig
s.1-3). Aunque este tipo
nen un vínculo cercano con l
os
or ejemplo, en el caso de
Stiny y Mitchell, a través de su vínculo con las
Figura 1
Mediante este ejemplo Stiny presenta un
sistema de transformación de una figura
geométrica. en base a reglas que se
aplican de manera reiterativa a los
resultados de cada paso del proceso.
Fuente: Environment and P
Vol. 7
Figura 2
El trabajo de Mitchell sobre las shape
grammars se informa de la concepción del
lenguaje como un sistema formal, modelo
que es explorado como herramienta para
el studio y la producción de la arquitectura.
Fuente: The Log
ic of Architecture: design,
computation and cognition, 1990. W.
Mitchell
Mediante este ejemplo Stiny presenta un
sistema de transformación de una figura
geométrica. en base a reglas que se
aplican de manera reiterativa a los
resultados de cada paso del proceso.
Fuente: Environment and P
lanning B, 1980.
El trabajo de Mitchell sobre las shape
grammars se informa de la concepción del
lenguaje como un sistema formal, modelo
que es explorado como herramienta para
el studio y la producción de la arquitectura.
ic of Architecture: design,
computation and cognition, 1990. W.
5. Mecanismos genéticos
129
investigaciones de Chomsky sobre las gramáticas
generativas lingüísticas), el interés aquí se dirige hacia
otro aspecto de las aproximaciones algorítmicas al
diseño. A saber, su exploración de una concepción de la
arquitectura inspirada por los imaginarios cibernéticos
que se encuentran en la base del desarrollo de las dos
ramas de la biología analizadas arriba.
Lo anterior se comprende mejor si se tiene en cuenta
que una las ideas principales que han dirigido las
exploraciones de los arquitectos digitales, ha sido la
comparación de los lenguajes computacionales con los
mecanismos de la herencia en los organismos y, de
manera general, la concepción de los mecanismos de la
naturaleza como procesos análogos a los mecanismos
de la computación. En este sentido la influencia, tanto
de la biología molecular, como del trabajo de notables
científicos – entre ellos John von Neumann, Stephen
Wolfram y John Holland, cuyo trabajo se ha situado en el
límite entre la informática y las ciencias biológicas – ha
sido un factor relevante para la consolidación de los
imaginarios genéticos de los problemas de diseño, en el
campo de la producción digital de la arquitectura.
En este punto es importante destacar que el desarrollo
de estos imaginarios ha reforzado una cuestión,
mencionada en el capítulo anterior, que se ha localizado
en el centro del trabajo de muchos arquitectos digitales.
Se trata de la fascinación que produce el potencial de la
computación para generar procesos de diseño
autónomos. Así, en base a la comparación entre la
computación y los mecanismos de la herencia, muchas
de las prácticas que se han basado en el empleo de
sistemas generativos se han construido alrededor de
metáforas genéticas.
Figura 3
La arquitectura algorítmica teorizada por
Kostas Terzedis plantea una aproximación
al diseño donde la forma resultante es el
producto de un proceso programado
basado en un sistema de búsquda
estocástica y de análisis de parámetros
variables. Fuente: Complexity. Design
Strategy and World View, 2008. A. Gleniger
& G. Vrachliotis (Eds.).
Figura 4
Mediante este diagrama, Peter Bentley
ejemplifica claramente las relaciones entre
la biología, la informática y el diseño.
Como se ha señalado a lo largo de este
capítulo, lo anterior explica que los
modelos morfo-genéticos de diseño se
hayan construido sobre la biologización de
los problemas de la arquitectura. Fuente:
Evolutionary Design by Computers, 1999.
P. Bentley (Ed.)
130
Este punto es claramente señalado por Peter Bentley, cuya introducción a Evolutionary Design by
Computers aparece como manifiesto del interés que ha suscitado la idea de utilizar las técnicas
computacionales evolutivas para resolver los problemas de diseño, como si sus objetos estuvieran
regidos por los mismos mecanismos desplegados por los sistemas naturales.
Para Bentley una mirada rápida a la gran cantidad de diseños extraordinarios en la naturaleza
debería ser suficiente para inspirar admiración en el poder de la evolución, sea esta natural o
generada por medios computacionales. Por ejemplo, Bentley afirma que “posiblemente el milagro
del diseño más complejo y remarcable jamás creado – el cerebro humano – fue generado por la
evolución en la naturaleza. No es solamente un diseño sorprendente en su forma terminada, sino
que también, sorprendentemente, su enorme complejidad se desarrolló de una simple célula
usando instrucciones contenidas en una molécula de ADN. Esta es tal vez la demostración más
concluyente de todas que las técnicas evolutivas de la computación evolutiva son altamente
apropiadas para los problemas de diseño.” (Bentley, 1999, p. 5)
En base a este tipo de discurso, los modelos genéticos en la arquitectura no solamente han
adaptado una serie de técnicas generativas a los problemas de diseño, sino que han construido
una variedad de imaginarios de los problemas disciplinares en base a metáforas biológicas (Fig.4).
De este modo, por ejemplo, los algoritmos que definen un proceso de diseño han sido concebidos
como el código genético de los edificios, mientras que los diseños resultantes de estos métodos
han sido pensados como el producto de procesos evolutivos definidos por mecanismos de
selección y adaptación. Así, en referencia directa a las metáforas informacionales en la biología,
los objetos arquitectónicos han sido imaginados como la manifestación física de un código o
programa, como el resultado de un sistema algorítmico de variación genética.
Para Ingeborg Rocker, el resultado de lo anterior ha sido el desarrollo de concepciones formales y
espaciales alternativas “que decodifican y recodifican la arquitectura.” (Rocker, 2006, p. 25) Lo
que plantea Rocker se puede interpretar como las implicaciones epistemológicas y técnicas de la
elaboración de nuevos métodos de diseño. O sea, como la redefinición de los las concepciones
tradicionales de los problemas de la arquitectura, y el consecuente desarrollo de nuevas técnicas
y conceptos que han sido inseparables del empleo de la computación en la arquitectura, de su
codificación.
Crucialmente, estos cambios, propios de la construcción de los modelos morfo-genéticos de
diseño alrededor de analogías biológicas, mantienen un vínculo muy cercano con los cambios
epistemológicos inherentes de las elaboraciones de la arquitectura computacional analizadas en
los capítulos precedentes.
5. Mecanismos genéticos
131
Estos modelos no solamente se han inspirado de los discursos cibernéticos sobre la información (y
sus implicaciones para el estudio de los organismos), sino que han empleado estas metáforas
biológicas como medio de exploración de las mismas caracterizaciones cibernéticas de los
problemas de diseño promovidas por los discursos del performance de la arquitectura. Es decir
que las analogías biológicas que se encuentran en la base de estos modelos no han hecho otra
cosa que reforzar los imaginarios cibernéticos/sistémicos de los objetos arquitectónicos sobre los
cuales se ha construido la perspectiva computacional en la arquitectura desde sus primeras
exploraciones: la concepción de los edificios como objetos performativos, como agentes
dinámicos y altamente integrados con el medio ambiente y, desde luego, como artefactos semi-
orgánicos.
El modelo elaborado por John Frazer, presentado en su popular ensayo An Evolutionary
Architecture, constituye el mejor ejemplo de lo anterior. Este modelo – construido alrededor de
metáforas sobre la codificación genética, la evolución y la adaptabilidad de la arquitectura –
constituye el caso paradigmático de cómo en las elaboraciones genéticas de la arquitectura
computacional confluyen la visión cibernética de los problemas disciplinares y la exploración de la
computación como medio correspondiente a esta ontología.
5.9 Una arquitectura evolutiva
La descripción de la arquitectura como un sistema contenido en un programa, y su concretización
por medio de un proceso computacional generativo, tiene importantes precedentes en el trabajo
de arquitectos como Christopher Alexander y Bill Hillier (además de otros ya mencionados, como
Mitchell y Stiny) quienes se preocuparon por definir una aproximación al diseño basada en el
estudio de las relaciones dinámicas entre diversos elementos, usando conceptos y modelos
importados de la lingüística, la teoría de conjuntos, el pensamiento sistémico y la computación.
No obstante, fue a partir del momento en que se comenzó a experimentar, especialmente en las
universidades británicas, con técnicas de simulación heredadas de la biología computacional,
como la programación genética y evolutiva, que empezaron a desarrollarse nuevas visiones del
diseño informadas por las concepciones informacionales del funcionamiento del organismo.
El trabajo llevado a cabo por John Frazer a partir de los años setenta en la Architectural
Association, descrito en An Evolutionary Architecture, constituye el ejemplo paradigmático de la
elaboración de metodologías de diseño donde confluyen el empleo de metáforas genéticas y
procesos computacionales de producción de la forma arquitectónica.
132
Basándose en ideas sobre la representación del ADN como un conjunto de reglas codificadas en el
organismo, y de la morfogénesis como un proceso gobernado por la información genética, Frazer
introdujo el uso de técnicas informáticas tales como los autómatas celulares y los algoritmos
genéticos en el diseño. Mediante la producción de nuevas metodologías de diseño apoyadas en el
uso de de estos métodos computacionales, los conceptos arquitectónicos comenzaron a ser
pensados como un sistema determinado por un conjunto de reglas generativas, cuya evolución y
desarrollo podían ser codificados genéticamente.
Es interesante destacar que estas metodologías de concepción se desarrollaron en gran medida
como un medio de exploración de las concepciones sistémicas de la arquitectura, que venían
siendo desarrolladas desde la introducción de las tecnologías de información en el diseño. El
trabajo de Frazer comparte dos aspectos que se desprenden de la concepción sistémica de los
problemas de la arquitectura. En primer lugar, el modelo de Frazer es ante todo una reflexión
sobre el espacio construido que comprende a una visión ecológica, en el sentido más amplio del
término, de los problemas de la arquitectura. En segundo lugar, el modelo propuesto parte de
concebir los objetos arquitectónicos como artefactos que comparten ciertas propiedades de los
organismos (Fig. 5).
Figura 5
El proyecto “Three-dimensional self- organizing constructor”, es un experimento sobre la auto-organización aplicada al diseño, basada
en un sistema similar a un automata cellular, donde la interacción entre las células depende de los aspctos de su crecimiento interno y
su intento por copiar sus atributos. Fuente: An Evolutionary Architecture, 1995. J. Frazer.
5. Mecanismos genéticos
133
Lo anterior aparece de manera patente en la
introducción del libro de Frazer, firmada por el
cibernético británico Gordon Pask,
53
autor del célebre
artículo The Architectural Relevance of Cybernetics. Pask
afirma que la tesis fundamental del trabajo de Frazer es
que “la arquitectura es una cosa viva que evoluciona” y
que las casas y las ciudades pueden ser concebidas
como lo que emerge de “la vida de quienes habitan el
espacio construido.” (Frazer, 1995, p. 6)
Estos dos enunciados sintetizan claramente los dos
puntos que definen la propuesta de Frazer. Por un lado,
se trata de una visión según la cual es posible concebir
los procesos de diseño en referencia a ciertas
características de los seres vivos, por ejemplo, la
capacidad de evolucionar. Y, por otra parte, se trata de
una concepción sistémica del espacio construido que
obliga a pensar los ambientes arquitectónicos y urbanos
como parte del ecosistema global.
En el trabajo de Frazer estas dos ideas fueron exploradas
en referencia a dos procesos naturales, la evolución y la
morfogénesis. El marco de trabajo desarrollado se
enfocó en la investigación de los “procesos
fundamentales de generación de la forma en la
arquitectura, de manera paralela a una más amplia
búsqueda científica de una teoría de la morfogénesis en
el mundo natural.” (Frazer, 1995, p. 9) Los mecanismos
de la naturaleza eran adoptados como el modelo para la
generación de la forma arquitectónica, de modo que la
arquitectura era considerada como una forma de vida
artificial sujeta a “principios de morfo-génesis,
53
Pask colaboró en múltiples proyectos con John Frazer y Cedric Price, cuyo trabajo es uno de los ejemplos
paradigmáticos de la reconceptualización de los problemas de la arquitectura en relación con el pensamiento
cibernético.
Figura 6
En este proyecto de investigación, Frazer,
en colaboración con Peter Graham,
emplearon un algoritmo genetic para
optimizar el performance de un bote,
mediante la aplicación de una lógica de
selección natural y artificial.Fuente: An
Evolutionary Architecture, 1995. J. Frazer.
134
codificación genética, replicación y selección.” (Frazer, 1995, p. 65)
Lo anterior se reflejó en la creación de modelos arquitectónicos virtuales capaces de responder a
ambientes cambiantes. Se trata de una exploración que se basó fundamentalmente en el empleo
de los algoritmos genéticos como herramienta de diseño (Fig. 6). Mediante el uso de esta técnica
computacional, se pretendía producir de manera generativa las manifestaciones tradicionales de
un concepto arquitectónico: espacio, estructura y forma. Así, el proyecto arquitectónico,
expresado como un conjunto de reglas, fue concebido como un espacio de búsqueda para la
evolución y análisis de un concepto de diseño, que de esta manera era definido como un proceso.
Lógicamente, esta aproximación al diseño involucró cambios significativos respecto a los métodos
de diseño tradicionales. La concepción del diseño como un proceso computacional implica definir
el proyecto como un código, crear un conjunto de reglas para el desarrollo de tal código y su
traducción en un modelo virtual. Además es necesario explicitar la naturaleza del ambiente
respecto al cual es analizado un concepto de diseño y definir los criterios de selección que
determinan la adaptabilidad del resultado.
En este sentido, el proceso de diseño es planteado en prácticamente los mismos términos
propuestos por los modelos performativos; lo anterior en la medida que un concepto de diseño
es analizado en función de su comportamiento respecto a un contexto determinado. Como se vió
anteriormente, el modelo de los algoritmos genéticos plantea el estudio del desarrollo de un
organismo, o la producción de un diseño, como un problema de adaptación y selección. En
términos de lo planteado por el análisis de sistemas, lo anterior es análogo a la resolución de un
problema mediante la observación de su performance.
En el método elaborado por Frazer, y en concordancia con la pragmática propia de los algoritmos
genéticos, las reglas para el desarrollo del código son concebidas como un lenguaje genético que
produce instrucciones para la generación de la forma, los modelos computacionales son usados
para simular el desarrollo de formas prototípicas, estas formas son evaluadas en función de su
performance o capacidad de adaptación, y los pasos evolutivos son generados rápidamente y en
grandes números. Finalmente, los códigos exitosos son usados para regenerar el concepto de
diseño hasta encontrar una solución, cuyo performance sea considerado satisfactorio, para ser
producida en el mundo real.
5. Mecanismos genéticos
135
5.10 Arquitecturas genéticas
Este modelo, donde los objetos arquitectónicos son
concebidos como sistemas adaptativos que emergen de
una serie de reglas codificadas en un programa, se ha
convertido en uno de los paradigmas dominantes en el
campo de la arquitectura computacional. Siguiendo una
línea de investigación similar, muchas prácticas
contemporáneas han explorado – mediante el empleo
de técnicas computacionales que incluyen la
programación genética, los autómatas celulares, los
sistemas de Lyndenmayer y los sistemas multi-agente –
enfoques de los problemas disciplinares similares a la
visión promovida por el modelo de Frazer.
Entre las investigaciones que han indagado perspectivas
similares en la arquitectura se puede mencionar el
trabajo de profesionales y teóricos como Paul Coates,
Peter Bentley, Ingebor Rocker, Michael Silver, Denis
Dollens, Karl Chu y Haresh Lalvani, entre otros, además
de las influyentes exploraciones de grupos de
investigación como el Emergence and Design Group y el
Emergent Design Group (cuyos modelos serán
analizados en el siguiente capítulo).
Todas estas prácticas comparten una concepción
sistémica y bio-inspirada de la arquitectura, basada
igualmente en el desarrollo de analogías sobre la
codificación genética, la morfogénesis, la evolución y la
adaptación (Figs. 7-8).
Un ejemplo paradigmático de lo anterior es el trabajo de
investigación desarrollado por Paul Coates y sus colegas
en University College London. Al igual que en el trabajo
de Frazer, su exploración del diseño como un proceso
Figura 7
Este ejercicio de diseño es un ejemplo en el
que una geometría es deformada en base a
los patrones de crecimiento de una
bacteria. Fuente: Arquitecturas genéticas
II,2005. A. Estévez (Ed.).
Figura 8
Imagen correspondiente a un proceso de
diseño planteado por el Emergent Design
Group, basado en el empleo de un lenguaje
de programación genética. Fuente:
Network Practices, 2007. A. Burke & T.
Thierney (Eds.)
136
generativo se ha definido alrededor del desarrollo de
metáforas biológicas y el empleo de una variedad de
técnicas computacionales de diseño (Fig. 9).
Por ejemplo, en un estudio de caso basado en el uso de
autómatas celulares, Coates y sus colegas describen el
proceso de diseño desarrollado como “información
codificada en la forma de estados de transición entre
células en una matriz tridimensional”. Aquí las células
del autómata celular se parecen a las células de un
organismo en dos sentidos: “[p]rimero, el
comportamiento y la forma material del organismo son
controlados por instrucciones codificadas en todas las
células del organismo en desarrollo. Segundo, la
información inicial, o estructura genética, expresada en
el autómata celular, como la combinación de la
configuración inicial de la célula y como un conjunto de
reglas de transición, consiste en una serie de
instrucciones que controlan solamente las transiciones
locales entre las unidades, requiriendo un sistema
generativo discreto para convertir la información
unidimensional en una forma tridimensional.” (Coates,
et al., 1996, pp. 2-3)
En este caso las reglas que dirigen un diseño son
consideradas como las instrucciones en el código
genético, los edificios son representados como
organismos y sus elementos como las células que lo
constituyen. Para Coates el resultado de una
metodología de diseño basada en el análisis paralelo y
no lineal de información, y en la introducción de una
estructura genética en la concepción de la arquitectura,
es considerar el objeto arquitectónico como un
fenómeno emergente. Es decir que el edificio es
pensado como el producto de la interacción a diversos
Figura 9
Imágenes correspondientes a un
experimento de diseño generativo, basado
en el empleo de una matriz tridimensional
de autómatas celulares que cambian de
estado en función de una serie de reglas
simples. Fuente: The Use of Cellular
Autómata to Explore Bottom Up
Architectonic Rules, 1996. Coates et al.
5. Mecanismos genéticos
137
niveles entre sus elementos, proceso del cual surge una totalidad organizada. En este sentido los
resultados de un proceso de diseño computacional son considerados literalmente “como formas
de vida artificial, no como emulaciones o representaciones de la vida.” (Coates, et al., 1996, p. 3)
Esta es una idea que ha ganado cada vez más terreno en el campo del diseño digital. Por ejemplo,
en una entrevista con Michael Silver, Evan Douglis plantea una idea muy cercana a la promovida
por Coates sobre la visión de la arquitectura como una forma de vida artificial. Douglis afirma que,
teniendo en cuenta el creciente conocimiento sobre el funcionamiento de la naturaleza y las
oportunidades que ofrecen las nuevas tecnologías, la arquitectura debería definir una ambiciosa
agenda orientada a “las nuevas posibilidades de dar vida a la arquitectura.” (Silver, 2006, p. 67) El
trabajo de Silver también se ha orientado en la misma dirección, al promover la exploración de la
computación como el medio para el desarrollo de sistemas arquitectónicos capaces de exhibir
características de auto-organización similares a las observadas en la naturaleza (Silver, 2005).
Esta idea ha dado paso a un creciente interés por extender a los procesos de materialización de la
arquitectura las nociones exploradas, en ambientes virtuales, mediante las técnicas de diseño
generativo. Al fin y al cabo, de la concepción del funcionamiento de los organismos como un
sistema de información codificado genéticamente se desprende que la materia también es
computable.
Este ha sido el problema planteado por una serie de exploraciones que han imaginado escenarios
en los que no son solamente los procesos de diseño los que son concebidos como sistemas auto-
organizados, sino que es la construcción material del espacio la que ha sido imaginada como un
proceso autónomo y teleológico. El interés reciente de los arquitectos digitales por las bio-
tecnologías y otros campos de investigación, como la ciencia de materiales, apunta en este
sentido. El origen de esta inquietud aparece claramente expuesto en ciertas prácticas que, desde
el paradigma genético, han promovido una concepción del performance de la arquitectura que
constituye una nueva forma de utopía en la profesión. De este modo se han construido
imaginarios sobre la posibilidad de generar, gracias a los avances tecnológicos, arquitecturas
evolutivas y literalmente vivas.
138
5.11 La dimensión utópica
Aunque Frazer fue el primero en advertir que ciertas de
sus ideas debían entenderse en un plano metafórico, por
ejemplo en el caso de las referencias genéticas, la
representación de la arquitectura como el producto de
un conjunto de reglas generativas (analogía de la
función del ADN en los organismos), ha tenido un
importante impacto en la construcción de nuevos
imaginarios de los objetos arquitectónicos, donde las
analogías biológicas se han traducido en ficciones
arquitectónicas. A diferencia del modelo de Frazer,
donde se puede decir que estas analogías funcionan
como prácticas discursivas que extraen significados de
los desarrollos en la ciencia para reforzar una
epistemología sistémica en el diseño, ciertas prácticas
contemporáneas han empleado las analogías genéticas
para promover visiones utópicas de una arquitectura
literalmente biológica (Fig. 10).
Por ejemplo, en base a la idea que la naturaleza y la
computación son regidas por mecanismos análogos,
Haresh Lalvani definió una agenda de investigación que
aspiraba a producir para la arquitectura un mapa
genético análogo al producido por el proyecto Genoma
Humano.
54
Mediante su exploración de la forma como
un mecanismo genético, Lalvani ha empleado el
concepto de genoma morfológico para caracterizar su
búsqueda de lo que él ha llamado “el genoma
arquitectónico”, es decir, “un código universal para
todas las morfologías.” (Lalvani, 2005).
54
El proyecto Genoma Humano (HGP) fue un proyecto de investigación terminado en 2003 cuyo objetivo era secuenciar
y mapear todos los genes de la especie Homo sapiens. Según el HGP el resultado de este proyecto es la posibilidad de
leer el plan genético de la naturaleza para la construcción de un ser humano. Véase al respecto:
http://www.genome.gov.
Figura 10
Como en el ejemplo presentado en la
figura 5, el anterior es un ejemplo de la
traducción literal de las metáforas
biológicas a los problemas de la
arquitectura. Fuente: Arquitecturas
genéticas III, 2009. A. Estévez (Ed.)
5. Mecanismos genéticos
139
Aquí la arquitectura es concebida como un campo
disciplinar preocupado por problemas análogos a los
definidos por la agenda de investigación de la biología
molecular.
55
Desde esta perspectiva Lalvani ha pensado
la arquitectura como un universo morfológico
compuesto, en su esencia, por un conjunto de
variaciones infinitas (Fig.11) La computación,
considerada como un medio análogo en sus operaciones
a los mecanismos genéticos, aparece por lo tanto como
el medio necesario para explorar y modificar este
universo. Se trata de un universo que para Lalvani es
“infinito y abierto, con una jerarquía fractal compuesta
de niveles dentro de niveles recursivos, a través de los
cuales uno puede acceder y navegar de diversas
maneras desde cualquier nivel. Este es un universo
donde cada estructura (y cada tipo de arquitectura)
puede transformarse en otra en un continuo de espacio
y tiempo, dentro y entre niveles.” (Lobell, 2006, p. 58)
Para el autor de Genomic Architecture, las
aproximaciones genéticas y algorítmicas en la
arquitectura, incluyendo su trabajo de investigación,
señalan un cambio en el empleo de la informática,
donde el computador deja de ser una herramienta de
trabajo para convertirse en “una máquina inteligente
para la resolución de problemas…una entidad capaz de
creatividad independiente.” (Lobell, 2006, p. 58)
55
Lalvani afirma que “[e]l genoma morfológico es un modelo experimental para el mapeo de otros genomas. Este está
compuesto de genes morfológicos (morfo genes), donde cada gen especifica una familia de parámetros relacionados, y
cada parámetro es controlado por una única variable de la forma equivalente a una «base» en el ADN. Estamos
trabajando sobre esta estructura universal de la forma, similar a la estructura del ADN de Crick y Watson, mapeándola y
manipulándola en su nivel genético.” (Lobell, 2006, p. 58)
Figura 11
En esta investigación sobre la forma de
una columna aparece claramente
representada la visión de Lalvani de la
arquitectura como un universo morfológico
de infinitas variaciones. Fuente: AD, 2006.
Vol 76 – 4.
140
En relación con lo anterior Lalvani imagina escenarios de
diseño cuyo objetivo sería la auto-morfogénesis. Pero en
este caso no se trata solamente del desarrollo de
procesos automatizados de diseño, sino de una visión de
la arquitectura “que se diseña a si misma físicamente… a
partir de formas codificadas, procesos [y] materiales.”
(Lobell, 2006, p. 61)
En la descripción de su proyecto The Milgo Experiment,
Lalvani presenta su trabajo como el intento por definir
un código universal para manipular cualquier tipo de
forma, sea esta natural o artificial (Lobell, 2006, p. 59).
De este modo se considera que, una vez mapeadas
todas las morfologías posibles, la dicotomía natural-
artificial dejaría de existir como una oposición dialéctica
para fusionarse en una sola cosa (Horn, 2008, p. 517).
Varios de los puntos centrales del proyecto de Lavalni
apuntan en una dirección en la que muchas ideas
exploradas en el campo de la arquitectura
computacional compiten con frecuencia con los
imaginarios construidos en el ámbito de la ciencia ficción
(Kolarevic, 2012).
La idea de atribuir a los objetos
diseñados el carácter evolutivo y auto-organizado de los
procesos computacionales de diseño ha constituido sin
duda el tema central de las visiones utópicas de la
arquitectura digital. Alrededor de esta idea, en este
campo han proliferado imaginarios sobre arquitecturas
que crecen, se reproducen y auto-organizan su
desarrollo (Fig.12).
Llevando a los límites del paroxismo esta idea, algunos
arquitectos, entre ellos Lalvani, han propuesto visiones
prospectivas de las implicaciones de concebir la
arquitectura como un sistema capaz de exhibir las
capacidades generativas de los organismos. En la línea
Figura 12
El trabajo de Hernan Diaz Alonso, por
ejemplo, se inserta dentro de esta
tradición, en la que los objetos
arquitectónicos exploran imaginarios
formales correspondientes a los procesos
computacionales que les dan forma. El
resultado es una estética de lo emergente,
de lo que crece y se reproduce. Fuente:
http://xefirotarch.com/current/index.php/
helsinki-library
5. Mecanismos genéticos
141
de las ideas expuestas en An Evolutionary Architecture, varias prácticas contemporáneas han
elaborado ficciones arquitectónicas alrededor de la idea de producir edificios literalmente vivos, y
han imaginado escenarios en los cuales las bio-tecnologías se perfilarían como medio para
alcanzar la auto-concepción y auto-construcción del espacio habitable.
Por ejemplo, partiendo de la exploración de sus ideas sobre el genoma morfológico de la
arquitectura, el discurso de Lalvani deriva en visiones de un futuro en el que los objetos
arquitectónicos se convertirían en seres completamente autónomos, poniéndole de paso un
punto final a la profesión de la arquitectura. De acuerdo a la visión expuesta en Genomic
Architecture, “[l]os edificios crecerían, responderían, se adaptarían y se reciclarían, se auto-
ensamblarían y auto-organizarían, recordarían y tendrían conciencia, evolucionarían, se
reproducirían y morirían. La arquitectura orgánica, si llegara a alcanzar la biología, se diseñaría a sí
misma. También se perpetuaría a sí misma. La arquitectura se convertiría en «vida», y
paradójicamente, los edificios no necesitarían nunca más a los arquitectos. La arquitectura
orgánica, en este escenario extremo, también definiría el final de la arquitectura (como la
definimos ahora).” (Lalvani, 2005)
Ideas muy similares han sido expuestas por Karl Chu, quien ha sido sin duda el más visible
promotor de las visiones utópicas de la arquitectura genética.
56
Chu ha planteado el uso conjunto
de la computación y la biogenética con el fin de reorganizar el mundo a partir de principios
generativos (Fig. 13). Esto mediante la manipulación de lo que él llama “la reserva escondida de la
vida”, o sea, el código genético (Chu, 2006, p. 39). De esta manera Chu insiste en la comparación
entre la computación y los mecanismos de la herencia.
De hecho Chu sostiene que esta idea se relaciona directamente con los orígenes de la
informática,
57
una disciplina que, según él, surgió no solamente con el objetivo de recrear la razón
instrumental en una máquina abstracta, sino con “el objetivo de codificar la lógica de la vida y el
mundo.” (Chu, 2006, p. 40).
56
El trabajo de Chu también es interesante en este contexto porque, más allá de su carácter utópico, refleja claramente
como las visiones morfo-genéticas en la arquitectura computacional se han asociado con una serie de conceptos
genéticos que se relacionan directamente con la lógica de la informática, especialmente con la noción de reescritura. En
referencia a lo anterior Chu explica que a través del concepto central de reescritura, su modelo se relaciona,
implícitamente, con la hermenéutica genética de la arquitectura de Eissenman y, explícitamente, con las arquitecturas
algorítmicas de Frazer y Balmond.
57
Al respecto Chu afirma, en coincidencia con un argumento aquí expuesto antes, que la visión informacional del
mundo promulgada por la cibernética ha sido reforzada por la formalización, paralela al desarrollo de la computación,
del ADN como un código.
142
Figura 13
Los experimentos llevados a Cabo por Chu se basan en la aplicación de operaciones propias de la programación, como la
copia y la repetición, que para Chu señalan un profundo vínculo entre los mecanismos genéticos y la computación. Esto
se refleja claramente en el carácter fractal de sus diseños. Fuente: Designing for a Digital World, 2002. N. Leach.
Partiendo del principio que la computación encarna la ambición última de crear sistemas
inteligentes, sea a través de máquinas abstractas o mediante la “mutación bio-maquínica de
sustancias orgánicas e inorgánicas” las ideas de Chu se basan en una visión informacional del
mundo, inspirada en teorías como las expuestas por el científico norteamericano John Wheler,
para quien cada objeto en el universo tiene una fuente inmaterial que es información (de lo cual
se desprendería que todos los procesos, incluidos los procesos físicos, pueden ser entendidos
como formas de computación).
Chu sostiene que con la convergencia de la computación y la bio-genética avanzamos hacia una
nueva era post-humana. Esta nueva condición implicaría el desplazamiento del reino de la
antropología y, en consecuencia, “la potencial emancipación de la arquitectura de la
antropología” (Chu, 2006, p. 41). De este modo surge la oportunidad de pensar en una
arquitectura autónoma y con voluntad de ser, que el autor llama “xenoarquitectura”. Se trata de
una concepción de la profesión, informada por las teorías de Leibniz y de la teoría algorítmica,
que se adecúa “a las exigencias impuestas por la computación y la revolución biogenética.” (Chu,
2006, p. 42).
De este modo el mito de la información desplazaría eventualmente al mito de la materia en la
arquitectura. Transformando la definición de la arquitectura propuesta por Mies Van de Rohe
5. Mecanismos genéticos
143
como el arte de ensamblar dos ladrillos, Chu plantea una nueva definición basada en el arte de
poner “dos bits juntos…bits que son programados para auto-replicarse, auto-organizarse y auto-
sintetizarse en nuevas constelaciones de relaciones y conjuntos.” (Chu, 2006, p. 42).
5.12 Los maginarios genéticos y el zeitgeist digital
La anterior es la imagen de una arquitectura inspirada en la noción de replicación, implícita en el
concepto de genética, y fundamental en los procesos computacionales. Chu sostiene que
“[i]mplícita dentro del concepto de genética está la idea de la replicación de unidades heredables
en base a alguna regla inherente dentro del código genético, e incluida dentro del mecanismo de
replicación hay una función generativa: la lógica autorreferencial de la recursión. La recursión es
una función o regla que se llama repetidamente a si misma o a su estado previo aplicando la
misma regla repetidamente, generando así una propagación autorreferencial de una secuencia o
una serie de transformaciones. Es esta lógica, codificada dentro de un principio interno, que
constituye la autonomía de lo generativo que se encuentra en el corazón de la computación.”
(Chu, 2006, p. 45).
En relación con estos modos de operación, el autor de Metaphysics of Genetic Architecture and
Computation imagina, al igual que en algunos de los ejemplos citados antes, una arquitectura
capaz de diseñarse y perpetuarse a sí misma, a la manera de los autómatas capaces de
reproducirse imaginados por von Neumann.
En este sentido discurso de Chu es característico de cómo las arquitecturas genéticas aparecen
como ejemplo paradigmático de la concepción de los problemas de la arquitectura en base a la
ontología cibernética. Por lo tanto, lejos de constituir un caso aislado, las visiones utópicas de la
arquitectura genética son sumamente representativas del zeitgeist digital. Estas visiones son
distintivas de la exploración, en el campo del diseño computacional, de una serie de aspectos
íntimamente relacionados con el paradigma informacional: la concepción del diseño como un
proceso no-lineal, de los edificios como sistemas auto-regulados y auto-organizados, y la
posibilidad de producir arquitecturas fundadas en el carácter computacional e informacional
propio de los fenómenos naturales.
144
5.13 Conclusión
En la primera parte del capítulo se ha mostrado cómo la analogía entre los sistemas
computacionales y los mecanismos de la herencia ha sido, en gran parte, el producto de una
relación de retroalimentación entre el desarrollo de la informática y de las visiones
informacionales en la biología, relación que refleja una evidente ontologización de los discursos
cibernéticos sobre la información.
En base a este análisis, se ha propuesto que esta ontologización también se encuentra en el
centro de los modelos genéticos de diseño. Profundamente influenciadas por la concepción de
los mecanismos de la herencia como un sistema de información, estas prácticas no sólo han
adoptado una pragmática informacional, propia de los sistemas algorítmicos empleados, sino que
han promovido una epistemología del diseño fundada en metáforas biológicas sobre la
programación genética, la evolución, la adaptación, etcétera.
Crucialmente, estas elaboraciones han reforzado una serie de aspectos inherentes a las
construcciones cibernéticas de la arquitectura analizadas en los capítulos precedentes: su
concepción del diseño como un proceso sistémico y no lineal, de los edificios como artefactos
auto-regulados, e igualmente su aspiración de producir arquitecturas fundadas en el carácter
comunicacional propio de los fenómenos naturales.
***
Además de reforzar la biologización de la arquitectura propia de las visiones cibernéticas, la
concepción del diseño como un problema de información codificada también ha despertado un
gran interés alrededor de la posibilidad de articular los procesos generativos de diseño con los
procesos de materialización de la arquitectura. Ha sido alrededor de este proyecto que se han
construido una serie de visiones utópicas del ejercicio de la profesión, desde las cuales se han
imaginado escenarios en los que las nuevas tecnologías permitirían a la arquitectura
eventualmente alcanzar la biología.
En este sentido, las arquitecturas genéticas imaginadas por Frazer y sus seguidores aparecen
como el fermento de una “nueva” dimensión en la comprensión de los problemas de la
arquitectura. Se trata de una tendencia que ha encontrado, en las ideas vehiculadas por la ciencia
de la complejidad, el paradigma de una arquitectura radicalmente emergente, concebida como
un fenómeno complejo que surge de la interacción entre múltiples elementos, incluidos sus
aspectos materiales, este es el tema del siguiente capítulo.
6. Fenómenos complejos
145
6. Fenómenos complejos
6.1 Resumen
En la década de 1980 se consolidó un nuevo modelo científico que se definió a partir del
objetivo de establecer un marco teórico general para el estudio de ciertos fenómenos,
definidos como sistemas complejos, caracterizados por estar compuestos de múltiples
elementos cuya interacción da origen a formas complejas de organización. Conocido como
ciencia, o teoría de la complejidad, este modelo científico surgió de la intención de desarrollar
una teoría unificada para estudiar este tipo de fenómenos en campos diversos como la física,
la economía, la biología y la informática.
Desde una perspectiva sistémica, el pensamiento de la complejidad ha promovido una agenda
de investigación basada en una visión holística de sus objetos de estudio, concebidos como
fenómenos emergentes y auto-organizados. Al igual que la teoría de sistemas, este modelo se
planteó en oposición a la tradición de pensamiento lineal en la ciencia, y su agenda de
investigación ha reforzado la concepción del mundo como un vasto sistema de sistemas
organizados. La teoría de la complejidad se inscribe entonces dentro de una tradición de
pensamiento de la cual hacen parte, además de la teoría de sistemas, la cibernética, la
cibernética de segundo orden y las teorías de la auto-organización.
En el campo del diseño computacional, las ideas promovidas por este modelo científico han
constituido la principal referencia para una serie de prácticas recientes que, en
correspondencia con la definición de los sistemas complejos, han explorado una concepción de
la arquitectura como un fenómeno emergente y auto-organizado. El objetivo de este capítulo
es mostrar de qué manera estas nociones centrales del pensamiento de la complejidad, han
sido cruciales para la elaboración de nuevos marcos teóricos y metodológicos en la
arquitectura, aquí catalogados como modelos emergentes.
De acuerdo con este objetivo, en la primera parte del capítulo se propone una mirada a las
ideas centrales promovidas por el pensamiento de la complejidad, y su relación con el
pensamiento cibernético. En base a este análisis, en la segunda parte se analiza cómo,
alrededor de estas ideas, se han desarrollado nuevos modelos de proyectación, en los que los
procesos algorítmicos de producción de la forma arquitectónica han sido pensados en
146
términos de la generación de un sistema complejo. Esta aproximación ha sido explorada junto
a la concepción de las propiedades materiales de la arquitectura como un generador activo en
el diseño.
Este último aspecto, fundamental en los modelos emergentes, ha sido pensado en torno a la
concepción los procesos de formación de la arquitectura como un fenómeno análogo a la
visión del desarrollo orgánico como un sistema auto-organizado, y a la consideración, en la
ciencia de la complejidad, de los procesos materiales auto-organizados como una forma de
computación física. En este sentido los modelos emergentes han investigado una nueva
dimensión del concepto de computación en el diseño arquitectónico.
Como se verá, estas elaboraciones de la arquitectura han promovido una ontología y una
epistemología del diseño que coincide en varios aspectos con las construcciones
performativas, sistémicas y genéticas de la arquitectura, examinadas en los capítulos
anteriores. En este sentido el análisis aquí planteado pretende situar los modelos emergentes
dentro de la tradición de las construcciones cibernéticas de la arquitectura computacional.
6.2 El pensamiento de la complejidad
Aunque la teoría de la complejidad se consolidó como un campo de investigación en los años
ochenta del siglo pasado, sus orígenes pueden buscarse en una serie de desarrollos científicos
ocurridos a partir del periodo de posguerra en Estados Unidos. De hecho algunos autores
consideran el artículo Science and Complexity de Warren Weaver, publicado en Amercican
Scientist en 1948, como el momento inaugural del pensamiento de la complejidad. En Science
and Complexity Weaver esboza lo que se convertiría en el tema central de este modelo: para el
autor era claro que en el estudio de ciertos fenómenos naturales el factor central no era el
número de variables analizadas, sino el hecho que estas estuvieran interconectadas.
El tipo de fenómenos a los cuales se refería Weaver, definidos como problemas de
complejidad organizada, eran aquellos que “envuelven un gran número de factores que están
organizados dentro de un todo orgánico.” (Weaver, 1948, p. 537) La complejidad organizada,
de acuerdo a Weaver, es la característica de los sistemas en los que los elementos siguen
reglas específicas y a través de sus interacciones crean un macro-comportamiento o un patrón
de organización a través del tiempo (Citado en Johnson, 2001, p.48).
6. Fenómenos complejos
147
Steven Johnson, autor del célebre ensayo Emergence. The connected lives of ants, brains, cities
and software, considera que las ideas sobre los fenómenos complejos promovidas por Weaver
nacieron como el producto de un cambio de paradigma en la ciencia resultante de una serie de
cambios epistemológicos y tecnológicos.
Entre los desarrollos que anteceden a las ciencias de la complejidad se puede mencionar el
trabajo de figuras como Claude Shannon (cuya teoría de la comunicación permitió estudiar en
las ciencias biológicas fenómenos análogos a la retroalimentación y el reconocimiento de
patrones), Norbert Wiener (padre de la cibernética), Edward O. Willson (quien estudió en las
hormigas cuestiones como el reconocimiento de patrones y la coordinación del
comportamiento global), Ilya Prigogine (pionero del estudio de la termodinámica de los
sistemas alejados del equilibrio), Oliver Selfridge (pionero en el campo de la inteligencia
artificial) y John Holland (cuya agenda de investigación sobre el comportamiento emergente y
adaptativo se convertiría en gran medida en la agenda de investigación del Santa Fe Institute)
(Johnson, 2001, Waldrop, 1992).
En base a estos y otros desarrollos en diferentes campos del conocimiento, la ciencia de la
complejidad empezó a consolidarse como un campo de investigación bien definido a principios
de los años ochenta gracias a los esfuerzos de un grupo de reconocidos científicos. A partir de
una iniciativa del físico Geroge Cowan, el grupo se planteó crear un espacio para la
investigación interdisciplinar basado en un nuevo paradigma científico. Cowan aspiraba a crear
un centro de investigación fundado en una visión holística de la ciencia (opuesta a las
aproximaciones reduccionistas y fragmentadas de la ciencia clásica) apoyándose en el uso de la
computación para el estudio de los fenómenos complejos.
Este proyecto se concretaría pocos años después con la fundación del Santa Fe Institute.
Partiendo de la certeza de tener las herramientas matemáticas y tecnológicas necesarias para
el desarrollo de tal paradigma – y empleando desarrollos en el estudio de las redes
neuronales, la ecología, la inteligencia artificial y la teoría del caos –, el objetivo central del
modelo propuesto era definir leyes generales para explicar diversos fenómenos considerados
como problemas isomórficos. El interés se centraba en aquellos fenómenos que comparten
una capacidad para estructurarse en base a masas de elementos simples, que interactúan
148
entre ellos sin la intervención de un organismo de control central y de los cuales surgen formas
complejas de organización.
58
Desde una perspectiva muy similar a la planteada algunos años antes por Ludwing Von
Bertalanffy y sus colegas de la Society for General Systems Research, el modelo propuesto
partía de considerar los fenómenos estudiados como sistemas, de la necesidad de establecer
una agenda de investigación que debía permitir el desarrollo de una ciencia unificada para
explorar los isomorfismos entre diferentes fenómenos, y romper con la tradición de
pensamiento lineal en la ciencia occidental.
Este último punto es fundamental, pues un aspecto central de los modelos elaborados en el
seno del Santa Fe Institute ha sido la descripción de los sistemas complejos a través de la
teoría de las dinámicas no-lineales.
59
Según Waldrop, la exploración de la dinámica no-lineal
de los sistemas complejos enfrentó a los científicos con el hecho que en este tipo de
fenómenos, a diferencia de los sistemas lineales en los que el todo es igual a la suma de las
partes, el todo puede ser mayor que la suma de las partes (Waldrop, 1992, p. 65)
De hecho, una de las preguntas que han dirigido la agenda de investigación del pensamiento
de la complejidad es la cuestión de cómo el universo, gobernado por una tendencia natural al
desorden, es a la vez el escenario de la creación de múltiples estructuras organizadas en todos
los niveles (Waldrop, 1992, p. 10) En relación con esta pregunta fundamental, algunos de los
temas de estudio que han ocupado a los pensadores de la complejidad incluyen, entre otros
fenómenos considerados isomórficos, la capacidad de las células para producir la vida, la
interconexión de las neuronas para dar origen al pensamiento y a la conciencia, la producción
de comportamientos físicos complejos a partir de partículas simples, o la organización
espontanea de diversas estructuras complejas como las galaxias, las estrellas y los huracanes
(Waldrop, 1992, p. 16). Estos problemas de investigación constituyen el mejor ejemplo de la
visión que subyace al pensamiento de la complejidad. Aquí el mundo aparece como un vasto
sistema de sistemas interconectados que organizan su propia estructura a partir de la
interacción en diversos niveles de sus componentes.
58
Refiriéndose al carácter interdisciplinar de esta aproximación, Johnson recuerda que desde esta perspectiva se
han analizado fenómenos como la dinámica de las ciudades, el funcionamiento de la economía, las redes
neuronales y la adaptación y el desarrollo en los organismos vivos (Johnson, 2001, p. 18).
59
Entre los antecedentes del empleo de esta aproximación en el estudio de los sistemas complejos se encuentra el
trabajo de Prigogine sobre los sistemas auto-organizados (gobernados por dinámicas no-lineales), la teoría del caos
(que promovía una visión de sistemas interconectados donde los más pequeños eventos producen efectos
enormes) y el estudio de la ciencia no-lineal promovido por el Center For Nonlinear Science funfado en Los Alamos.
De acuerdo a Waldrop, Cowan creía que detrás del tipo de proceos estudiados en estos tres ámbitos había una
unidad, que estos eran aspectos comunes a diversos fenómenos (Waldrop, 1992, p.67).
6. Fenómenos complejos
149
El interés en este tipo de fenómenos ha venido de la mano con la capacidad de la computación
para realizar grandes cantidades de cálculos y de analizar problemas que, según Weaver,
tienen más que ver con patrones desarrollándose en el tiempo que con estructuras estáticas
(Johnson, 2001, p. 49). Por lo tanto la computación ha constituido un aspecto clave en la
agenda de investigación de la ciencia de la complejidad, convirtiéndose en una disciplina
intermedia entre las ciencias teóricas y las ciencias experimentales, que ha permitido a los
científicos ver sus ecuaciones (teorías) desplegando patrones (experimentos) que de otro
modo no podrían predecirse (Waldrop, 1992, p. 76).
Pero, más importante aún, la computación no ha sido considerada únicamente como una
herramienta útil para el estudio de los fenómenos complejos, sino como un campo de estudio
ligado a los problemas de la ciencia de la complejidad. Para Murray Gell-Mann la idea de
estudiar fenómenos que podían ser modelados gracias al empleo de la computación no
respondía solamente al hecho que ésta permitía modelar sistemas complejos, sino a que los
ordenadores eran considerados como un ejemplo de este tipo de fenómeno (Waldrop, 1992,
p. 76).
6.3 Sistemas Complejos
En la base de la construcción de los isomorfismos señalados arriba se encuentra el concepto de
sistema complejo. De acuerdo con la definición propuesta por Holland, los sistemas complejos
son fenómenos en los que la materia, la energía y la información se mezclan en ciclos
complejos (por ejemplo, las ciudades, el sistema nervioso y los ecosistemas). La segunda
característica fundamental de los sistemas complejos es su dependencia de una gran cantidad
de interacciones entre elementos simples, de las cuales surgen totalidades que son más que la
suma de las partes individuales que conforman el sistema (Holland, 2004, pp. 17-20).
Al respecto Waldrop agrega que es “la riqueza de estas interacciones” lo que permite al
sistema “producir su auto-organización espontánea.” (Waldrop, 1992, p. 11) Este punto es
importante pues, como lo señala el autor de Complexity, un aspecto central de los sistemas
complejos es su carácter auto-organizado, es decir, se trata de procesos que ocurren sin que
estos sean definidos por un sistema jerárquico de control, como es el caso en un ecosistema.
150
De acuerdo con lo anterior, un fenómeno es considerado como un sistema complejo cuando
este es el resultado de un grupo de elementos en interacción que logran trascender su
carácter individual, adquiriendo así propiedades colectivas como la vida y el pensamiento. Lo
anterior se relaciona con el carácter adaptativo y dinámico de los sistemas complejos,
considerados como sistemas capaces de convertir las condiciones de su contexto en su propia
ventaja y, gracias a su carácter dinámico, pueden establecer algún tipo de balance entre el
orden y el caos. Se trata del punto “en el que los componentes de un sistema nunca parecen
en su sitio sin tampoco disolverse en la turbulencia.” (Waldrop, 1992, p. 12)
Teniendo en cuenta estas características de los sistemas complejos, estos han sido modelados
según cuatro principios: el primero es que los sistemas complejos adaptables son fenómenos
compuestos por elementos cuyas interacciones son descritas en términos de reglas. El
segundo es que tales elementos se adaptan cambiando sus reglas mediante la acumulación de
experiencias. El tercero afirma que puesto que el medio ambiente de un sistema complejo está
constituido por otros elementos en un constante proceso de adaptación, los esfuerzos de
adaptación de un sistema complejo son esfuerzos por adaptarse a otros sistemas adaptables.
En consecuencia, esta es la cuarta premisa, los patrones que generan un sistema complejo son
patrones en cambio permanente (Holland, 2004, p. 25).
Estos cuatro enunciados resumen bastante bien las premisas centrales del pensamiento de la
complejidad. En primer lugar, la definición de sus problemas de investigación como fenómenos
que emergen de la interacción, dirigida por reglas simples, de los elementos que constituyen
un sistema. En segundo lugar, la consideración que el resultado de estas interacciones es la
auto-organización de los sistemas complejos. Y, finalmente, la idea que al estar inmersos en
una red de relaciones con otros sistemas, los sistemas complejos deben adaptarse
permanentemente a los cambios en su medio ambiente; como el medio ambiente de un
sistema está constituido por otros sistemas adaptables, no se habla de la evolución de un
sistema sino de la co-evolución de todos los sistemas que se encuentran interconectados.
Alrededor de estas ideas, diversos científicos han venido desarrollando una agenda de
investigación multidisciplinar – los campos de investigación incluyen la economía, la biología y
la computación – basada en la exploración del carácter emergente y auto-organizado de los
fenómenos complejos.
6. Fenómenos complejos
151
6.4 Emergencia y Auto-organización
Como se ha visto, la premisa de base del pensamiento de la complejidad es que los sistemas
complejos surgen, o emergen, de la interacción entre los elementos que los componen. Si la
emergencia de algún tipo de organización es el resultado de las interacciones internas entre
los elementos de un sistema, y no el producto de un mecanismo de control externo, se
considera que el sistema es auto-organizado.
La noción de emergencia está estrechamente vinculada con dos aspectos centrales en el
pensamiento sistémico. Primero, con la idea que las totalidades tienen propiedades distintivas
que surgen de procesos de interacción sucesiva entre diferentes niveles de organización; de lo
anterior se desprende que las propiedades de un sistema no pueden ser deducidas de sus
componentes analizados individualmente. Y segundo, con la idea que un sistema puede ser
una forma de organización definida por la interacción entre elementos más simples y al mismo
tiempo ser un componente de un sistema con un nivel de organización más alto. De este modo
los fenómenos complejos aparecen como estructuras jerárquicas con niveles crecientes de
complejidad (Weinstock, 2010, p. 33).
Un ejemplo citado con frecuencia para explicar el concepto de emergencia, y el carácter
jerárquico de los sistemas emergentes, es el tipo de organización observado en las
comunidades conformadas por los insectos sociales. La colonia de hormigas es el ejemplo
típico de un sistema constituido por elementos simples, y organizado de abajo hacia arriba. Las
acciones coordinadas por reglas simples de un grupo de individuos dan origen a un fenómeno
con un alto nivel de organización. En este tipo de organización las acciones locales de los
agentes individuales producen un comportamiento global que es la colonia (Johnson, 2001, p.
74).
El carácter dinámico de la emergencia es un aspecto fundamental en los modelos elaborados
para el análisis de los fenómenos complejos. En relación con este factor, dos cuestiones han
sido centrales en la representación de los sistemas complejos: la consideración del
comportamiento emergente como el resultado de fases de transición y la representación de
los sistemas emergentes como sistemas de retroalimentación.
El concepto de fase de transición hace referencia al punto en el cual un sistema es capaz de
producir algún tipo de organización lo suficientemente complejo, sin ser caótico, para ser
considerado como un proceso auto-organizado y adaptativo. En este sentido Chris Langton,
152
pionero del campo de la vida artificial, se ha referido a los sistemas complejos como sistemas
“en el borde del caos” (Waldrop, 1992, p. 12). Se consideran como sistemas en el borde del
caos aquellos en los que los componentes de un sistema logran un alto nivel de organización,
gracias a su capacidad para adaptarse permanentemente a condiciones cambiantes, sin perder
su identidad. En otras palabras, el borde del caos hace referencia al comportamiento
complejo como el punto intermedio entre el tipo de organización de un sistema con una forma
de organización demasiado estática y un sistema totalmente caótico.
En referencia a esta idea, diferentes científicos, entre ellos John Holland, Stuart Kauffman,
Stephen Wolfram y el propio Langton, han definido una agenda de investigación que ha
promovido la idea que el procesamiento de información se encuentra en todas partes en la
naturaleza. Por ejemplo Langton, basándose en el trabajo de Wolfram con los autómatas
celulares
60
, ha promovido la idea que existe una profunda conexión entre las denominadas
fases de transición y la computación, y entre la computación y la vida. Según la hipótesis de
Langton, los autómatas celulares de la clase IV identificada por Wolfram (aquellos que
producen comportamientos emergentes, complejos y auto-organizados) y la vida
corresponden al tipo de comportamiento dinámico resultante de las fases de transición.
La comparación entre los mecanismos de la vida y la computación señala uno de los aspectos
en los que se observa el vínculo que mantiene el pensamiento de la complejidad con el
paradigma cibernético. Crucialmente, el secreto del equilibrio entre el orden y el caos de los
sistemas complejos se encontraría en el hecho que el comportamiento emergente se
construye en base a sistemas que exhiben diferentes tipos de causalidad circular. El estudio de
los fenómenos complejos como sistemas regulados por formas de causalidad recíproca
(feedback positivo y feedback negativo) ha sido un aspecto esencial en el pensamiento de la
complejidad.
61
60
El trabajo de Wolfram plantea la existencia de cuatro clases de autómatas celulares (AC). La clase I incluye
aquellos en los que casi todas las configuraciones iniciales conducen a un estado homogéneo. La clase II constituye
los que permiten la emergencia de estructuras estables o periódicas. La clase III incluye los AC que presetan un
comportamiento caótico con motivos aperiódicos. La clase IV es constituida por los AC que permiten la emergencia
de estructuras complejas capaces de oscilar, de moverse y de conservar su auto-organización a pesar de
perturbaciones estructurales (Wolfram, 1983).
61
De hecho el trabajo de Monod y Jacob, quienes describieron el funcionamiento del ADN como un sistema
cibernético, ha sido muy influyente para los modelos desarrollados en la ciencia de la complejidad. En el modelo
propuesto por Jacob y Monod la auto-organización de las células se explica como el resultado de la comunicación a
nivel local de los genes. “Cada célula en el cuerpo contiene un conjunto intrincado de herramientas para detectar el
estado de las células vecinas y para comunicar con esas células usando varios mensajes químicos.” (Johnson, 2001,
p.84) Gerald Edelman, uno de los científicos implicados en el desarrollo de las explicaciones informacionales del
ADN, plantea una idea similar: “Puesto que cada célula en el cuerpo contiene una copia completa del genoma,
6. Fenómenos complejos
153
Considerados como sistemas de retroalimentación, el comportamiento emergente de los
sistemas complejos ha sido concebido como el resultado de las conexiones en dos sentidos
que fomentan mayores niveles de organización: “[t]odos los sistemas descentralizados
dependen ampliamente de la retroalimentación, tanto para el crecimiento como para su auto-
regulación.” (Johnson, 2001, p. 133)
Lo anterior recuerda que la noción de auto-organización – que ha sido explicada como el
desarrollo de un sistema a partir de inicios simples hacia niveles más altos de complejidad, y
que se ha asociado con la idea que la organización emerge como consecuencia de las
interacciones múltiples y complejas de los componentes de un sistema – tiene su origen en el
modelo cibernético de causalidad. De hecho el concepto fue acuñado por el cibernético
británico William Ross Ashby, quien lo empleó para explicar la tendencia hacia el equilibrio de
los sistemas dinámicos; equilibrio que sería el resultado de la dependencia mutua entre los
componentes del sistema (Ashby, 1962).
Lo mismo aparece en el influyente trabajo de Ilya Prigogine sobre la termodinámica de los
sistemas alejados del equilibrio, donde las interacciones entre los componentes de un
sistema, de las cuales surge su comportamiento auto-organizado, son definidas como procesos
de retroalimentación. El trabajo de Prigogine se desarrolló alrededor de la idea que los
sistemas rara vez son cerrados, es decir, que estos están casi siempre expuestos a flujos de
energía y materia que provienen del exterior. Este flujo permanente es el que permitiría a
diversos sistemas físicos y naturales revertir, aunque sea de manera temporal y localmente, la
segunda ley de la termodinámica (Waldrop, 1992, p. 34).
Michael Weinstock expone claramente este punto en su extenso trabajo sobre los sistemas
emergentes, The Architecture of Emergence. El autor afirma que “[n]ingún sistema en la
naturaleza o en la civilización es cerrado, es decir, siempre hay un intercambio continuo de
energía y material a través del límite del sistema. La energía y el material deben ser adquiridos
del mundo físico y puestos a trabajar para construir y mantener el sistema…La presencia o
ausencia de feedback negativo y positivo es crítica para todos los sistemas, como lo son las
condiciones del límite del sistema y las relaciones con un ambiente que se encuentra al
exterior de esos límites.” (Weinstock, 2010, p. 36).
ninguna célula necesita esperar instrucciones de una autoridad; cada célula puede actuar de acuerdo a su propia
información y de las señales que recibe de sus vecinos.” (Citado en Johnson, 2001, p.86)
154
Concebida como el resultado de las interacciones complejas entre los elementos que
conforman un sistema, la auto-organización ha sido descrita como el resultado de dinámicas
espontaneas, como las propiedades colectivas que emergen de la interacción de elementos
buscando acomodación mutua, como la propiedad de los sistemas que son lo suficientemente
complejos y que tienen suficiente conectividad para auto-mantenerse, o como patrones que se
auto-forman y evolucionan.
En la definición de Holland de los sistemas complejos esta mecánica aparece claramente
esbozada. Para Holland los sistemas complejos se auto-organizan mediante la constantemente
revisión de sus bloques constructivos (los elementos en un nivel a partir de los cuales surge
una forma de organización en un nivel más alto) en la medida que ganan experiencia. Para
Holland, en un nivel profundo estos procesos son los mismos en diversos sistemas y la
estrategia es la misma: una dinámica permanente de retroalimentación entre los elementos
constitutivos del sistema (Holland, 2004).
En cierto modo esta definición de la auto-organización y sus mecanismos resume las ideas
alrededor de las cuales se ha construido el pensamiento de la complejidad. Este pasaje
resuena con las conclusiones de los primeros encuentros organizados por los promotores del
estudio de los fenómenos complejos. Como lo recuerda Waldrop, allí quedó claro que “cada
tema de interés tenía en su centro un sistema compuesto por muchos elementos. Estos
elementos podían ser moléculas, o neuronas, o especies, o consumidores, o incluso
corporaciones. Pero cualquiera que fuese su naturaleza, los elementos estaban
constantemente organizándose y reorganizándose a sí mismos en estructuras más grandes por
medio del choque de la acomodación mutua y la rivalidad mutua.” (Waldrop, 1992, p. 88)
Esta breve explicación de los conceptos centrales del pensamiento de la complejidad permite
comprender el estrecho vínculo entre este modelo y los discursos de la información. La
cercanía del pensamiento de la complejidad con la teoría de sistemas, la comparación entre la
computación y la vida, la descripción del comportamiento emergente como el resultado de
mecanismos de retroalimentación y la influencia de las explicaciones del funcionamiento del
ADN desarrolladas por Jacob y Monod en sus modelos, son algunos de los puntos señalados
aquí que dejan entrever la relación entre el pensamiento complejo y la cibernética. A
continuación se propone una mirada a ciertos aspectos esta relación.
6. Fenómenos complejos
155
6.5 El pensamiento de la complejidad y la cibernética
Antes se ha señalado que la noción cibernética de causalidad circular, al igual que la
representación de los fenómenos en el mundo como sistemas comunicacionales, se encuentra
en la base de muchos desarrollos influyentes en diferentes campos del conocimiento
contemporáneo. Para Manuel De Landa, es justamente en el desarrollo de las técnicas que
dieron origen al concepto cibernético de causalidad circular que debe buscarse la semilla del
pensamiento de la complejidad.
De Landa sugiere que al introducir en sus investigaciones el estudio del feedback negativo,
Norbert Wiener, y con él los ingenieros implicados en el desarrollo de la tecnología del radar,
fue el pionero del pensamiento no lineal en la ciencia occidental (De Landa, 2011, p. 67). De
esta manera el autor de A Thousand Years of Nonlinear History sitúa a Wiener como una figura
clave en el desarrollo del pensamiento de la complejidad. Aquí ya se ha visto que uno de los
aspectos cruciales del estudio de los sistemas complejos ha sido su descripción a través de la
teoría de las dinámicas no-lineales, y que este campo de investigación se planteó, desde sus
inicios, como una alternativa al modelo de causalidad lineal; noción que, como lo señala De
Landa, había dominado el pensamiento occidental durante más de doscientos años (De Landa,
2011, p. 67).
El estudio de los fenómenos complejos desde una perspectiva de causalidad recíproca, como
sistemas de retroalimentación (positiva y negativa), es solamente uno de los aspectos en los
que se percibe la estrecha conexión entre el pensamiento cibernético y la ciencia de la
complejidad. Varios autores (van Dijkum, 1997; Ramage & Shipp, 2013;
Alhadeff-Jones, 2008;
Le Moigne, 1996) han explicado cómo la ciencia de la complejidad se ha construido en base a
varios conceptos heredados de la cibernética y la teoría de sistemas.
Por ejemplo, Ramage, Chapman y Bissell destacan, en un reciente número de la revista
Kybernetes, que la relación entre la cibernética y la teoría de la complejidad es un tema de
discusión actual y que “[e]xiste un claro camino histórico desde los inicios de la cibernética a la
teoría de la complejidad.” Según los autores “[m]uchas de las ideas centrales de la teoría de la
complejidad – auto-organización, emergencia, adaptación – son tomadas directamente de de
la cibernética” (Ramage, et al., 2013, p. 1). Entre los aspectos remarcables de este vínculo se
destacan el origen cibernético del concepto de auto-organización, acuñado por William Ross
Ashby, la estrecha relación entre el trabajo de Stuart Kauffman y las investigaciones de Warren
156
McCulloch, y el influyente trabajo de Ilya Prigogine, reconocido como un aporte importante
para el desarrollo del paradigma cibernético por la World Organisation of Systems and
Cybernetics (Ramage, et al., 2013, p. 1).
La conexión entre el pensamiento cibernético y el pensamiento de la complejidad también ha
sido señalada por Jean Louis Le Moigne, quien ha sugerido que las conferencias de Macy
fueron determinantes para la legitimación de una tendencia de investigación que proveyó una
poderosa fundación pragmática a la idea de complejidad (Le Moigne, 1996). Michel Alhadeff-
Jones por su parte sostiene que la teoría de la información contribuyó a explicar el fenómeno
de la complejidad organizada, conceptualizado por Warren Weaver, como la reducción de la
entropía que se observa cuando un sistema convierte en algún tipo de orden la energía (o
información) que obtiene del exterior (Alhadeff-Jones, 2008).
A estos antecedentes se debe sumar la cercana relación que mantuvieron algunos de los
promotores del pensamiento de la complejidad con el modelo cibernético. Además de la bien
conocida relación entre Stuart Kaufman y Warren McCulloch, cabe recordar que Warren
Weaver, autor de Science and Complexity, escribió la introducción de la teoría de la
comunicación de Shannon, y que otras figuras centrales en el desarrollo del pensamiento de la
complejidad se educaron bajo la influencia de las ideas cibernéticas: el economista William B.
Arthur se formó en el campo de la investigación de operaciones, mientras que John Holland y
Oliver Selfridge fueron estudiantes de Norbert Wiener.
Entre los antecedentes del pensamiento de la complejidad también se cuentan los desarrollos
en varios campos directamente vinculados con la cibernética: la teoría de autómatas y las
redes neuronales, la investigación de operaciones, la teoría de sistemas y las teorías de la auto-
organización.
En lo que concierne a la teoría de autómatas, Alhadeff-Jones plantea que este modelo –
desarrollado a partir del principio que este tipo de sistemas funcionan por medio de
operaciones que pueden ser entendidas en términos abstractos como un conjunto de inputs,
outputs y reglas de operación – habría “contribuido a una nueva percepción de la complejidad
organizada cuando esta fue enriquecida por el trabajo de McCulloch y Pitts sobre las redes
neuronales…y por el trabajo de von Neumann sobre la auto-reproducción.” (Alhadeff-Jones,
2008, p. 70) Como se ha visto arriba, tanto el trabajo de McCulloch y Pitts como el de von
Neumann ha sido una influencia crucial en el pensamiento de algunos de los científicos
vinculados al Santa Fe Institute, entre ellos Kaufman, Wolfram y Langton.
6. Fenómenos complejos
157
En cuanto a la investigación de operaciones, según Warren Weaver la aproximación
multidisciplinar de los equipos formados en este campo, los cuales bajo la presión de la guerra
mezclaron sus diversos recursos y se enfocaron en la solución de problemas comunes, también
fue fundamental a la hora de tratar ciertos problemas como fenómenos de complejidad
organizada (Weaver, 1948).
La teoría de sistemas, que en base al paradigma cibernético contribuyó a conceptualizar como
sistemas isomórficos diferentes tipos de totalidades organizadas, comparte con la ciencia de la
complejidad un aparato conceptual común. Para Aldaheff-Jones, la teoría de sistemas fue
fundamental para la elaboración e implementación de las metodologías que aspiraban a
representar ciertos fenómenos como problemas de complejidad organizada (Alhadeff-Jones,
2008, p. 72). Según Phelan lo anterior sugiere un alto nivel de conmensurabilidad entre las dos
teorías: “[u]na comparación casual de la teoría de sistemas y de la teoría de la complejidad no
puede evitar observar un grado de superposición conceptual. Varios términos contienen
virtualmente la misma definición en las dos teorías, incluyendo sistema, emergencia, dinámico,
no lineal, adaptativo y jerarquía. Las dos teorías también comparten una creencia que existen
principios universales que subyacen a todos los sistemas. Esto ha llevado a algunos
comentadores a sugerir que los dos campos son substancialmente similares, con la teoría de la
complejidad siendo una versión derivada (y posiblemente más avanzada) de la teoría de
sistemas.” (Phelan, 1999, p. 237).
En lo referente a las teorías de la auto-organización, noción determinante para la definición de
los fenómenos complejos como sistemas emergentes, ya se mencionó antes que este
concepto fue acuñado por el cibernético británico William Ross Ashby, quien uso el término
para describir la correspondencia entre los comportamientos de un sistema y las relaciones
entre sus partes. La idea de auto-organización también se ha nutrido de otros desarrollos en
campos cercanos al pensamiento cibernético, entre estos se cuenta el trabajo sobre los
autómatas de John von Neumann, al igual que las ideas de Heinz Von Foerster, Humberto
Maturana y Francisco Varela sobre los sistemas autopoiéticos (Alhadeff-Jones, 2008, p. 73).
En relación con estos desarrollos, la ciencia de la complejidad ha definido una agenda de
investigación que retoma los problemas centrales del pensamiento cibernético. En este
sentido el pensamiento de la complejidad ha reforzado una visión del mundo como un vasto
conjunto de sistemas integrados, retroalimentados y auto-regulados, cuyas dinámicas dan
origen a patrones complejos de organización, que constituirían la esencia de diversos
fenómenos naturales, artificiales, físicos y sociales. Una definición del pensamiento de la
158
complejidad expuesta en Complexity resume claramente lo anterior: para Waldrop la ciencia
de la complejidad es ante todo una búsqueda “sobre el flujo, el cambio, y la formación y
disolución de patrones.” (Waldrop, 1992, p. 17)
Alrededor de estas ideas se ha elaborado un nuevo marco conceptual para pensar los procesos
computacionales de generación de la forma arquitectónica. En referencia concreta a los
conceptos de emergencia y auto-organización, la computación de la arquitectura ha sido
pensada en términos de la interacción de los múltiples elementos que definen un escenario de
diseño y del comportamiento material del objeto arquitectónico. Como se verá a continuación,
este tipo de aproximación al diseño ha dado paso a la formulación de nuevos marcos teóricos y
metodológicos para la producción de la arquitectura, que corresponden a la ontología y la
epistemología informacional propia del desarrollo de la perspectiva computacional en la
profesión.
6.6 La arquitectura como un sistema complejo
Alrededor de las ideas promovidas por la ciencia de la complejidad, diversos fenómenos han
sido concebidos en diferentes campos del conocimiento contemporáneo como sistemas
complejos. La arquitectura no ha sido la excepción. Por ejemplo, los autores de un manual
para pensar los problemas de diseño desde esta perspectiva, afirman que en la actualidad “[l]a
tarea central de los planificadores es resolver problemas complejos.” (Schonwandt, et al.,
2013, p. 7) Cuando se habla de los problemas disciplinares en estos términos, se hace
referencia concretamente a una concepción de los objetos arquitectónicos como sistemas en
los que, como lo plantean Bonabeau, Dorigo y Theraulaz, “la autonomía, la emergencia y el
funcionamiento distribuido reemplazan el control, la pre-programación y la centralización.”
(Citado en Leach, 2004, p.71)
Esta manera de concebir los problemas de diseño ha sido particularmente influyente en el
terreno de la producción digital de la arquitectura. Teniendo en cuenta el influjo cibernético en
el desarrollo de la perspectiva computacional en la arquitectura, no en absoluto casual que un
modelo de pensamiento que se apoya fuertemente en el empleo de la computación y cuyas
ideas se inscriben dentro de la tradición del pensamiento de sistemas, haya llamado la
atención de los profesionales involucrados en este campo. De hecho, el paradigma de la
complejidad se ha convertido en uno de los modelos de referencia alrededor de los cuales se
6. Fenómenos complejos
159
han construido los problemas de investigación de la arquitectura computacional en los últimos
años. En referencia a este modelo diversas prácticas han desarrollado nuevas aproximaciones
al diseño, orientadas hacia la exploración de los problemas de la arquitectura en conformidad
con los conceptos y las técnicas empleadas para el estudio y simulación de los fenómenos
complejos.
En el centro de esta exploración se ha situado la concepción de la arquitectura como un
fenómeno emergente. No obstante, la elaboración de los problemas de diseño como procesos
emergentes no se ha circunscrito exclusivamente a la concepción de la arquitectura como un
sistema complejo. Como se señaló en el capítulo anterior, los diferentes modelos que han
concebido el diseño como un proceso generativo han planteado la cuestión de la emergencia
de la arquitectura. Este es el caso de las investigaciones sobre las shape grammars, modelo
informado por el pensamiento estructuralista y la lingüística, promovido por figuras como
Lionel March, George Stiny y William Mitchell, y de las elaboraciones genéticas de la
arquitectura, construidas bajo la influencia de las representaciones informacionales de los
mecanismos de la herencia en la biología.
En estas prácticas los procesos de diseño elaborados han fomentado una concepción de la
arquitectura como el resultado de la interacción dinámica entre diversos elementos. Por lo
tanto, como lo sugiere Christian Derix, en los dos casos la programación de la arquitectura ha
sido pensada en referencia a la idea que “las cualidades visuales y espaciales del espacio no
podían ser «autorizadas» explícitamente dentro de la representación de la geometría, sino que
las relaciones sistémicas de los elementos y sus mecanismos, contenidas en algún tipo de
contexto, darían origen a expresiones del espacio desconocidas al inicio.” (Derix, 2008, p. 46)
Siguiendo esta ontología del diseño arquitectónico, en la última década se han desarrollado
nuevas metodologías y agendas de investigación en el diseño, basadas en el empleo de la
computación, que han explorado visiones de la arquitectura como un fenómeno emergente y
auto-organizado.
62
De acuerdo con esta visión de los problemas arquitectónicos, se han propuesto nuevos
escenarios para la exploración de una concepción sistémica y performativa de sus
producciones. Crucialmente, alrededor de la exploración del diseño en referencia a las
62
La investigación de esta lógica en la producción de la arquitectura ha sido concebida como el medio ideal para
responder al problema de la creciente complejidad de los problemas de la arquitectura. Por ejemplo, en el epílogo
de Tooling, Sanford Kwinter plantea esta convicción al sugerir que para afrontar problemas más exigentes, el diseño
“no debe enfocarse únicamente en procesos reguladores de primer orden, sino que debe apuntar a los controles de
segundo orden que regulan a los procesos reguladores mismos.” (Aranda & Lasch, 2006, p. 93)
nociones centrales del pensamiento de la complejidad
(emergencia y auto-
organización), se ha definido un
marco de trabajo relacionado con la
arquitectura como un sistema compuesto por un gran
número de factores, determinado por los múltiples
vínculos
posibles entre estos factores,
esperarse una gran variedad de resultados
inesperad
os. En este sentido las investi
catalogadas como m
odelos emergentes han
investigado la misma
concepción del diseño
promovida por las caracterizaciones
arquitectura. No obstante
, los modelos emergentes
han definido una línea de investigación
en diferentes
herramientas teóricas y metodológicas
desde la cual
se ha repensado la cuestión de la
generación de la forma en la arquitectura.
L
a construcción de los problemas de la arquitectura
como fenómenos complejos se ha elaborado
alred
edor de dos temas centrales en el pensamiento
de la complejidad: en primer lugar, la definición de los
sistemas complejos como el resultado, lo que emerge,
de las interacciones loc
ales simples entre diversos
elementos
. En segundo lugar, la exploración de l
inherente a esta lógica relacional, según la cual todos
los elementos que participan en la definición de una
situación compleja son agentes activos
de la exploración de esta mecánica
encuentra la idea que es posible
arquitectónica compleja y organizada de abajo hacia
arriba.
63
63
Este punto representa un cambio crucial en la manera de concebir el diseño que es propio de la exploración de la
computación en la arquitectura, pero particularmente e
señala Leach, de concebir que, en oposición a los sistemas organizados de arriba hacia abajo y de acuerdo a
principios generales, un sistema basado en reglas de bajo nivel puede producir un nivel más alt
(Leach, 2004, p.72).
160
nociones centrales del pensamiento de la complejidad
organización), se ha definido un
marco de trabajo relacionado con la
definición de la
arquitectura como un sistema compuesto por un gran
número de factores, determinado por los múltiples
posibles entre estos factores,
del cual pueden
esperarse una gran variedad de resultados
os. En este sentido las investi
gaciones aquí
odelos emergentes han
concepción del diseño
promovida por las caracterizaciones
cibernéticas de la
, los modelos emergentes
han definido una línea de investigación
propia, basada
herramientas teóricas y metodológicas
,
se ha repensado la cuestión de la
generación de la forma en la arquitectura.
a construcción de los problemas de la arquitectura
como fenómenos complejos se ha elaborado
edor de dos temas centrales en el pensamiento
de la complejidad: en primer lugar, la definición de los
sistemas complejos como el resultado, lo que emerge,
ales simples entre diversos
. En segundo lugar, la exploración de l
a idea,
inherente a esta lógica relacional, según la cual todos
los elementos que participan en la definición de una
situación compleja son agentes activos
(Fig. 1). Detrás
de la exploración de esta mecánica
en el diseño se
encuentra la idea que es posible
definir una realidad
arquitectónica compleja y organizada de abajo hacia
Este punto representa un cambio crucial en la manera de concebir el diseño que es propio de la exploración de la
computación en la arquitectura, pero particularmente e
vidente en los modelos emergentes. Se trata, como lo
señala Leach, de concebir que, en oposición a los sistemas organizados de arriba hacia abajo y de acuerdo a
principios generales, un sistema basado en reglas de bajo nivel puede producir un nivel más alt
Figura 1
El proyecto Field project,
curso de diseño emergente dirigido por
Una-May O’Reilly,
Ian Ros
constituye un ejemplo claro de la
concepción de la
arquitectura como un
fenómeno complejo organizado de abajo
hacia arriba. Aquí la organización local de
las viviendas no es el product
patrones regulares predefinidos, sino del
comporta
miento atribuido a cada una de
ellas
. De este modo las viviendas son
diseñadas como un ensamblaje
adaptativo de elementos que definen el
espacio. Fuente:
Emergent Design:
Artificial Life for Architecture Design,
2000. U.M.
O'Reilly et al.
.
Este punto representa un cambio crucial en la manera de concebir el diseño que es propio de la exploración de la
vidente en los modelos emergentes. Se trata, como lo
señala Leach, de concebir que, en oposición a los sistemas organizados de arriba hacia abajo y de acuerdo a
principios generales, un sistema basado en reglas de bajo nivel puede producir un nivel más alt
o de sofisticación
El proyecto Field project,
producto de un
curso de diseño emergente dirigido por
Ian Ros
s y Peter Testa,
constituye un ejemplo claro de la
arquitectura como un
fenómeno complejo organizado de abajo
hacia arriba. Aquí la organización local de
las viviendas no es el product
o de
patrones regulares predefinidos, sino del
miento atribuido a cada una de
. De este modo las viviendas son
diseñadas como un ensamblaje
adaptativo de elementos que definen el
Emergent Design:
Artificial Life for Architecture Design,
O'Reilly et al.
6. Fenómenos complejos
161
Como corolario de esta concepción holística y emergente de los problemas de diseño, ciertas
prácticas han hecho un énfasis particular en la consideración del comportamiento material del
objeto arquitectónico como uno de los aspectos esenciales en los procesos de formación de la
arquitectura. Este énfasis se ha sustentado en la idea según la cual la materia exhibe
propiedades emergentes y auto-organizadas, de modo que su comportamiento puede ser
considerado como un factor activo, o generativo, en la producción de la forma
arquitectónica.
64
Esta idea se ha asociado con dos cuestiones, estrechamente vinculadas, que han nutrido los
imaginarios de la arquitectura como un fenómeno emergente: la concepción del desarrollo
biológico como un proceso físico auto-organizado, y la idea que la computación está presente
en todas partes en la naturaleza.
Estas exploraciones se han llevado a cabo de la mano con el desarrollo de nuevos escenarios
para el empleo de los modelos computacionales de diseño y de técnicas importadas de la vida
artificial y la biología computacional, además de una indagación sobre las posibles aplicaciones
en el diseño arquitectónico de los adelantos en campos como la ciencia de materiales y la
ingeniería bio-mimética.
6.7 La formación emergente y auto-organizada de la arquitectura
De acuerdo con la definición del comportamiento de un sistema complejo como el resultado
de las interacciones locales, simples y no-lineales entre sus componentes, el concepto de
emergencia en la arquitectura se ha asociado con la definición de métodos generativos de
concepción, mediante los cuales la producción de la forma arquitectónica ha sido explorada
como el resultado de propiedades adaptativas y auto-organizadas. Es decir, como el resultado
de las propiedades que surgen de las relaciones dinámicas entre los diversos factores que
definen un problema de diseño. Para Neil Leach este modo de concebir los problemas de la
arquitectura ha constituido el problema central del trabajo de varias prácticas de diseño
64
Al respecto, en el artículo Material Complexity, Manuel De Landa explica cómo alrededor de las ideas centrales de
las teorías de la complejidad ha surgido una nueva concepción filosófica de la materia, teorizada por Deleuze y
Guatari, y nuevos campos de investigación sobre el comportamiento de la materia en base a técnicas
correspondientes al estudio de condiciones de no-equilibrio, dinámicas no lineales y la teoría de la inestabilidad. (De
Landa, 2011, p. 18)
162
digital, que el autor sitúa dentro de una tradición en la
que el performance de la arquitectura ha sido
privilegiado sobre su apariencia.
Siguiendo a Deleuze y Guattari, Leach relaciona esta
tradición en el diseño con una manera de construir el
conocimiento que los autores de Mil mesetas definen
como un modo de pensamiento intensivo. Se trata de
una visión del conocimiento desde la cual el mundo se
entiende en términos de fuerzas, flujos y procesos; en
palabras de Leach este es “un modelo bottom-up que
responde en cada instancia individual a las
particularidades del momento.” (Leach, 2004, p. 74)
En el pensamiento arquitectónico contemporáneo
esta visión aparece claramente representada por el
concepto de diseño emergente. Esta aproximación al
diseño se basa en la identificación de los elementos
que definen un problema de diseño y sus interacciones
locales; interacciones que son definidas por las
propiedades intrínsecas de los elementos en cuestión
y su proximidad con otros elementos. Esta es la base
de los modelos desarrollados por el Emergent Design
Group, cuyas herramientas y estrategias de diseño –
que se han elaborado alrededor de la integración de
una serie de técnicas y conceptos importados del
campo de la vida artificial
65
– han definido uno de los
ejemplos paradigmáticos de la construcción de la
arquitectura como un fenómeno complejo (Fig. 2).
De acuerdo con las propiedades de los fenómenos
complejos, las investigaciones del Emergent Design
Group han desarrollado una visión de la arquitectura
basada en la consideración de cada parte de un
65
Modelo establecido por Chris Langton en el seno del Santa Fe Institute, enfocado en el estudio de la computación
y la vida como fenómenos análogos.
Figura 2
Estas imágenes corresponden a un un
proceso de diseño desarrollado con
GENR8, una herramienta desarrollada
por el EDG, que permite explorar una
metodología de diseño arquitectónico
basada en el empleo de lenguajes de
crecimineto como los L-Systems, junto
con un sistema de simulación de
adaptación evolutiva.
Fuente:web.mit.edu/edgsrc/www/genr8/
media.html
6. Fenómenos complejos
163
problema de diseño, incluidos los factores medio-
ambientales, como un componente activo. De este
modo se ha elaborado un modelo en el que los
escenarios de diseño son definidos como un sistema
en el que cada uno de sus elementos puede influir en
el estado del ambiente, o de otros componentes del
sistema, creando así una forma de organización que
puede generar niveles de organización cada vez más
complejos (Testa, et al., 2001, p. 484).
Este modo de definir los problemas de diseño se
encuentra en el centro de diferentes prácticas de
diseño computacional, donde la capacidad de auto-
organización de los fenómenos complejos ha sido
considerada como un factor de gran potencial para la
generación de la forma arquitectónica. En este
sentido se han desarrollado diversas estrategias de
diseño basadas en el empleo de técnicas como los
autómatas celulares y los sistemas basados en
agentes, que permiten explorar configuraciones
espaciales que resultan de la interacción, en base a
reglas simples, entre elementos activos.
Un ejemplo bien conocido de esta manera de pensar
los procesos de concepción es el Automason 1.0 de
Michael Silver (Fig. 3). Mediante la definición de una
estrategia de diseño basada en el empleo de
autómatas celulares, Silver plantea un método de de
auto-producción de la arquitectura donde la
interacción, controlada por reglas simples, de los
elementos constructivos produce la forma global del
edificio. En la descripción de su proyecto, Silver
explica, trasladando a un problema arquitectónico los
discursos del pensamiento de la complejidad, que “con
programas simples los detalles constructivos obtienen
Figura 3
El proyecto Automason 1.0 de Michael
Silver constituye un ejemplo de la
exploración de una lógica de diseño
“bottom-up”, donde la configuración de
los espacios diseñados es el resultado de
las reglas contenidas en un autómata
celular. En este caso los elementos
constructivos de la envolvente del edificio
son equivalentes a las células en una
matriz tridimensional. Fuente: AD, 2006.
Vol 76 – 4.
164
su complejidad gratuitamente; ningún agente externo,
autor o sistema externo es necesitado para
diseñarlos.” (Silver, 2005)
La elaboración de los procesos de diseño como
sistemas auto-organizados – noción que ha sido
asociada por los teóricos de la complejidad con el
carácter teleológico de los sistemas orgánicos y otros
fenómenos biológicos como la emergencia del
comportamiento inteligente – ha dado paso a la
construcción de los modelos emergentes alrededor de
nuevos imaginarios biológicos.
De hecho, un aspecto crucial de estas aproximaciones
al diseño ha sido la idea de estudiar la lógica de
organización de los fenómenos naturales, gracias a la
capacidad de la computación para describirlos y
simularlos, y extraer de esta lógica reglas para la
elaboración de la arquitectura. En este sentido los
modelos emergentes refuerzan, mediante su
aspiración de atribuir a los objetos diseñados ciertas
características de los organismos, la “biologización”
del diseño propia de diversas producciones digitales
de la arquitectura(Fig. 4).
Por ejemplo, construidos como procesos auto-
organizados, los procesos de concepción han sido
imaginados como sistemas capaces de exhibir una
forma de inteligencia propia. De esta manera se ha
considerado que un problema de diseño, concebido
como un fenómeno emergente, debería permitir
evaluar un escenario complejo y encontrar una
variedad de soluciones adaptadas a sus condiciones
intrínsecas.
Figura 4
El trabajo de Michael Weinstok se
inscribe dentro de esta línea de
investigación, que se ha centrado en el
estudio del comportamiento material
auto-organizado de diversos sistemas
naturales, con el objetivo de aplicar
principios similares en el diseño
arquitectónico. Fuente: AD, 2006. Vol 76 -
2.
6. Fenómenos complejos
165
Un ejemplo de lo anterior se encuentra en las
investigaciones de Abel Maciel (Fig. 5), definidas como
un intento de “demostrar las ventajas de un proceso
de diseño que contiene variables locales que son
procesadas automáticamente para adquirir un
comportamiento inteligente.” (Maciel, 2008, p. 62)
Según Maciel, gracias a la definición del proyecto
mediante la acción de agentes inteligentes, que “se
adaptan a los cambios en sus ambientes locales en
búsqueda de objetivos mínimamente especificados”,
sería posible interrogar, refinar y sugerir mejores
maneras de resolver un problema arquitectónico
(Maciel, 2008, p. 62).
Aquí el principio es el mismo que el que subyace a las
investigaciones del Emergent Design Group; mientras
haya un grupo de elementos activos fuertemente
interrelacionados, se asume que la emergencia de un
comportamiento cada vez más complejo es inevitable,
en este caso, el comportamiento inteligente de un
sistema.
La misma cuestión aparece de manera latente en el
influyente trabajo de Benjamin Aranda y Chris Lasch.
Partiendo de la exploración de las reglas simples que
describen el comportamiento complejo de una serie
de fenómenos naturales, una parte del trabajo de
Aranda y Lasch se ha orientado hacia la concepción de
sistemas formales que exhiben los altos niveles de
organización presentes en la naturaleza (Fig.6). En
palabras de Cecil Balmond, las investigaciones
algorítmicas de Aranda y Lasch “compilan y revelan
una serie de órdenes embebidos”, de modo que estas
pueden, a un nivel macro, insinuar la organización
Figura 5
Mediante el empleo de algoritmos
genéticos y sistemas emergentes, Abel
Maciel explora el diseño como un
proceso de selección, adaptación y auto-
optimización del cual emergen
configuraciones espaciales que el
programador no puede anticipar. Fuente:
http://www.bdonline.co.uk
Figura 6
La arquitectura algorítmica de Aranda y
Lasch es un caso paradigmático de la
definición de procesos de diseño basados
en la interacción de elementos a partir de
reglas simples, de los cuales emergen
sistemas complejos. Fuente: Pamphlet
Architecture 27: Tooling, 2006. B. Aranda
& C. Lasch.
166
cósmica, o, a un nivel micro, intuir procesos biológicos (Aranda & Lasch, 2006, p. 7).
La idea central explorada por los autores de Tooling es que la arquitectura es un “proceso
extendido de formación.” Esto significa que “antes que las ideas se fundan en una forma
definitiva, debe existir algún estado indiferenciado libre de cualquier organización. En el
momento en el que cualquier tipo de desarrollo es impuesto en esta materia sin forma, esta
comienza a entrar en el reino de la substancia, la organización y lo material.” (Aranda & Lasch,
2006, p. 8) En este sentido el trabajo de Aranda y Lasch aparece como una exploración de las
reglas que influencian el movimiento de este estado pre-material hacia el reino de lo material.
Crucialmente, este es uno de los aspectos fundamentales que han dirigido la agenda de
investigación de diferentes prácticas de arquitectura emergente; a saber, la integración en los
procesos de diseño de dos dimensiones, la organización del diseño en base a reglas
programadas y su interacción con los aspectos materiales de la arquitectura.
De esta manera la emergencia de la arquitectura ha sido concebida como el resultado de una
dinámica de retroalimentación que envuelve, además del influjo de fuerzas y factores externos
al objeto diseñado, el comportamiento material de la arquitectura como un factor activo en los
procesos de formación.
6.8 La computación material de la arquitectura
Esta manera de pensar la generación de la forma en el diseño arquitectónico ha sido explorada
en referencia concreta a un cambio de enfoque en las ciencias biológicas que se ha
desprendido del concepto cibernético de auto-organización. Manuel De Landa explica que este
cambio de enfoque se desprende de la consideración que “[e]ntre la información codificada en
los genes y los rasgos adaptativos de una planta o un animal (i.e., entre genotipo y fenotipo),
hay múltiples capas de procesos auto-organizados, cada uno sostenido por estados estables
generados endógenamente, ellos mismos el producto del flujo de materia y energía.” (De
Landa, 2011, p. 112) Desde esta perspectiva se ha considerado que el material genético no
constituye exactamente“un plano para la generación de la estructura y las funciones orgánicas,
una idea que implica que la información contenida en los genes predefine una forma que es
impuesta en una carne pasiva. Por el contrario, se considera que los genes y sus productos
actúan como restricciones en una variedad de procesos que generan orden espontáneamente,
6. Fenómenos complejos
167
de alguna manera desentrañando una forma a partir de carne activa (y morfo-genéticamente
preñada).” (De Landa, 2011, p. 112)
Alrededor de esta concepción cibernética del desarrollo biológico como paradigma para el
diseño – paradigma que ha conducido a pensar en los procesos de materialización de la
arquitectura como una fuerza generativa en el diseño – aparece el segundo aspecto del
pensamiento de la complejidad alrededor del cual se han construido los modelos emergentes.
Un aspecto crucial de la concepción de la morfo-génesis expuesta por De Landa es la idea que
cualquier sistema complejo, independientemente de su naturaleza, “es capaz de generar
orden espontáneamente y de organizarse a si mismo activamente en nuevas estructuras y
formas.” (De Landa, 2004, p. 17) Esta premisa, central en el pensamiento de la complejidad, ha
sido asociada por algunos de sus principales promotores (Langton, Kaufmann, Wolfram) con la
idea que los sistemas complejos son regidos por mecanismos comparables a la computación.
66
Philip Ball explica que el origen de esta comparación se encuentra en el hecho que diferentes
fenómenos auto-organizados pueden ser simulados mediante sistemas computacionales,
como los autómatas celulares, donde una serie de elementos discretos interactúan mediante
reglas locales simples, y cuyo estado depende del estado de las células circundantes. De
manera análoga, al ser definidos como procesos de interacciones locales y simples, los
patrones auto-organizados observados en la naturaleza han sido pensados como una especie
de computación material efectuada por las interacciones de los elementos de un sistema (Ball,
2012, p. 26).
En correspondencia con esta consideración, al ser concebida como un proceso material auto-
organizado, y por lo tanto como un fenómeno análogo al desarrollo en los organismos, la
emergencia de la forma arquitectónica también ha sido pensada como el producto de una
especie de computación material.
Mediante esta asociación de ideas, la consideración de los procesos materiales como una
fuerza generativa para la emergencia de la arquitectura se ha relacionado con el concepto de
computación. De este modo la idea de computación no se ha asociado únicamente con la
programación de los procesos de formación de la arquitectura, sino con la comprensión del
comportamiento físico de los objetos diseñados como una especie de computación material de
la cual emerge la forma arquitectónica.
66
En este sentido existe una gran cercanía entre los modelos genéticos y los modelos emergentes.
168
Por ejemplo, en base a la idea que un sistema material
en el que diversos componentes individuales trabajan
juntos puede entenderse como una forma de
computación, en el campo de la arquitectura
computacional ha sido ampliamente explorada una
aproximación al diseño inspirada en los experimentos
de descubrimiento de la forma elaborados por Frei
Otto y Antoni Gaudí – cuya influencia ha sido crucial
para el desarrollo de diversas aproximaciones al
estudio de la forma arquitectónica, considerada como
la expresión material de fuerzas, tensiones, sistemas
constructivos, etcétera (Fig. 7).
En un intento por establecer métodos de diseño
capaces de integrar la concepción de la morfo-génesis
de la arquitectura como un proceso computacional –
tanto como el resultado de su programación
algorítmica y como el producto de un proceso material
complejo – algunas de las más influyentes prácticas
contemporáneas han concebido una agenda de
investigación donde la arquitectura ha sido pensada
como el resultado de procesos auto-organizados en
diversos niveles, desde su programación hasta su
comportamiento físico.
Tal enfoque ha implicado pensar de otro modo los
ciclos de retroalimentación en los procesos
generativos que definen una forma arquitectónica,
dando un espacio mucho más importante a los
aspectos tectónicos en la concepción digital de la
arquitectura. En este sentido, en los modelos
emergentes la programación de la arquitectura no ha
sido pensada únicamente como la definición de una
serie de instrucciones y reglas que contienen y
predefinen la forma del edificio, sino, retomando las
Figura 7
En este caso, Christoph Ingenhoven &
Partner, junto a Frei Otto, Büro Happold y
Leonhardt & Andrae, exploran mediante
un modelo suspendido la forma de los
arcos de una estación de tren en
Stuttgart. Mediante este método, el
diseño es concebida como el resultado de
una lógica de retroalimentación entre la
forma diseñada y el comportamiento
material de sus componentes. Fuente:
http://www.freiotto.com/FreiOtto
6. Fenómenos complejos
169
palabras de De Landa, como “restricciones en una
variedad de procesos que generan orden
espontáneamente, de alguna manera desentrañando
una forma”; aunque, en este caso, no de carne activa
como diría el filósofo, sino de sistemas materiales
activos.
A partir de la consideración que las propiedades de la
materia pueden ser “generadores activos”, se han
definido nuevos enfoques para el empleo de la
computación en el diseño. Desde esta perspectiva el
potencial de la computación ha sido pensado como un
medio para definir la organización material de la
arquitectura, mediante la exploración de metodologías
de concepción que envuelven una lógica de
retroalimentación entre la arquitectura y el ambiente,
y que incluye entre los factores analizados las
características y el comportamiento material del
objeto diseñado (Menges, 2012, p. 16).
El germen de este tipo de aproximación al diseño
puede apreciarse en el trabajo teórico y experimental
de Lars Spuybroeck, quien ha sido uno de los
principales promotores de una teoría de la generación
digital de la forma dependiente de su comportamiento
material (Fig. 8).
En correspondencia con la concepción del
comportamiento material como una forma de
computación, la teoría propuesta por el director de
NOX parte de considerar la materia no como un ente
pasivo, sino como algo dinámico, como algo móvil en
sí mismo. De esta manera se considera que el
comportamiento material de la arquitectura puede ser
Figura 8
En el trabajo de NOX los aspectos
materiales de la arquitectura son
considerados como un factor generativo
de la forma, es decir, como parte de un
proceso activo del cual puede emerger
algún tipo de organización de manera
espontánea. En este caso específico, la
forma del edificio es investigada a través
del comportamiento de un sistema de
curvas catenarias, que posteriormente es
traducido en un modelo virtual
tridimensional. Fuente: Performative
Architecture, 2005. B. Kolarevic & A.M.
Malkawi (Eds).
170
pensado como un proceso activo capaz de generar orden espontáneamente.
Spuybroek sostiene que esta visión “envuelve el ahora bien conocido concepto de auto-
organización, en el que los materiales son agentes activos…que buscan orden, un orden que no
es trascendentalmente establecido sino que emerge de abajo hacia arriba.” (Spuybroek, 2010,
p. 272) En referencia a esta idea, que evoca los problemas centrales del pensamiento de la
complejidad, Spuybroek plantea una concepción del diseño que se relaciona con una nueva
ontología (compleja) del comportamiento material y con el potencial de la codificación de la
arquitectura para explorar esta ontología.
Para Spuybroek entender el carácter activo de la materia también implica concebir que
cualquier objeto, sea este natural o artificial, es en su origen una singularidad organizacional
que puede divergir en múltiples estructuras reales. En términos del diseño de un objeto
arquitectónico lo anterior significa que el proyecto puede ser concebido a través de dos fases:
una fase de convergencia y una de divergencia. La fase de convergencia corresponde a “un
movimiento de virtualización, en el que se recopila, selecciona, mapea o grafica información, y
posteriormente es organizada en una máquina virtual.” Esta fase es un movimiento hacia el
orden y la organización. La fase de convergencia es “un movimiento de actualización en el que
el diagrama organizacional germina y se vuelve formativo.” Se trata de un movimiento hacia la
materia y la estructura (Spuybroek, 2010, p. 273).
La concepción del proceso de diseño como un movimiento de convergencia y de divergencia
evoca la idea, central en la biología del desarrollo, según la cual no toda la información se
encuentra en los genes; idea que obliga a pensar que los aspectos físicos del desarrollo deben
tener una influencia en el proceso de formación de un organismo. Esta visión del desarrollo
biológico ha informado diferentes prácticas que han planteado la importancia de incluir los
factores materiales en los métodos algorítmicos de concepción.
Por ejemplo, desde esta perspectiva se ha propuesto una nueva manera de concebir la
programación genética de la arquitectura, que se ha relacionado con el carácter de la
emergencia en los mecanismos de la herencia. Así, la noción de diseño emergente se ha
construido en relación con la idea que “[u]n genotipo no es estático, sino un dialogo con el
fenotipo y los procesos a los que la forma de vida está expuesta…[e]l ADN no es un plano
estático para la vida, sino que está cambiando constantemente y adaptándose a fuerzas
exteriores.” (Maciel, 2008, p. 62)
6. Fenómenos complejos
171
La misma cuestión aparece en la visión del diseño
explorada por Cecil Balmond en Element (Fig.9), visión
que se inspira de la concepción de los procesos de
formación en la naturaleza como un mecanismo de
retroalimentación entre la información codificada en
los genes y las fuerzas presentes en el contexto en el
cual el organismo se desarrolla. Así, el desarrollo
orgánico aparece como un modelo para el diseño del
correcto balance entre patrón y substancia: “[e]l
algoritmo…promueve la idea básica…a diferentes
escalas, y el ambiente alimenta las posibilidades de
variación.” (Balmond, 2007)
En referencia a esta manera de concebir el diseño,
Spuybroek considera que “[s]i el código ya es en sí
mismo material, y su historia es material, también lo
es su desarrollo. Por lo tanto, también para el diseño
necesitamos un pensamiento procesal progresivo,
metodologías seriales que, como la cadena lineal de la
molécula del ADN, sean activadas en diferentes
momentos del procedimiento, que sean materiales y
parciales, desde el principio hasta el fin.” (Spuybroek,
2010, p. 274).
En otras palabras, lo que imaginan Spuybroek y
Balmond es una metodología de concepción en la que
el comportamiento físico del edificio debe ser
analizado e integrado dentro de los ciclos de
retroalimentación que definen la forma
arquitectónica. De esta manera la forma es concebida
como un proceso computacional no solamente en la
medida que es el resultado de la operación de una
máquina virtual (la forma programada, por ejemplo),
sino también en tanto que resultado del
Figura 9
Balmond ha explorado profundamente la
conexión entre los patrones presentes en
los sistemas naturales y su desarrollo en
función de diferentes condiciones. Del
mismo modo en su trabajo está latente
una concepción del diseño como un
sistema programado capaz de adaptarse
para responder a parámetros variables.
Fuente: Element, 2007. C. Balmond.
172
comportamiento material complejo del objeto
diseñado.
Esta ontología del diseño ha sido profundamente
explorada en el trabajo del Emergence and Design
Group, grupo que ha definido una de las agendas de
investigación más influyentes en el campo de la
arquitectura digital en los últimos años. Alrededor del
estudio de los procesos de auto-organización y
emergencia en los sistemas naturales, Michael Hensel,
Michael Weinstock y Achim Menges han desarrollado
una aproximación experimental al diseño
arquitectónico que ha explorado nuevos escenarios
metodológicos y teóricos para la concepción de una
arquitectura sistémica, performativa y bio-inspirada.
Lo anterior mediante el desarrollo de procesos
generativos de creación de la forma informados por el
comportamiento material del objeto arquitectónico
(Fig. 10).
Las exploraciones del grupo se han basado en gran
parte en la observación de los de los procesos
mediante los cuales emergen funciones y propiedades
en los organismos. Partiendo de la comprensión del
concepto de auto-organización como el incremento
automático del orden en un sistema, y de la noción de
emergencia como la producción espontanea de
diversas escalas de organización y de interrelaciones
entre los componentes de un sistema, el grupo ha
indagado sobre las implicaciones de estos mecanismos
en los sistemas naturales y sus posibles aplicaciones en
los procesos de diseño y fabricación dirigidos
digitalmente (Hensel, et al., 2006, Hensel & Menges,
2008).
Figura 10
En este experimento desarrollado por el
Emergence and Design Group,
un
proceso computacional fue empleado
para crear una serie de superficies
regladas, generadas a partir de la
definición paramétrica de una serie de
curvas generatrices y directrices. Para el
proceso de generación de la forma se
tuvieron en cuenta tanto criterios
estructurales, que podían ser analizados
de manera recurrente para mantener un
estado de equilibrio del sistema, como
criterios relacionados con la relación
entre cuerpo, espacio, movimiento y el
espacio emergente. Fuente: AD, Vol 78-2
6. Fenómenos complejos
173
Algunas de las características de los sistemas orgánicos
que han sido investigadas en relación con este
objetivo incluyen el alto nivel de integración y
funcionalidad de los seres vivos, la redundancia como
estrategia biológica y el fenómeno de diferenciación.
Estas características de los organismos son
consideradas de interés para la concepción de la
arquitectura, considerada como un fenómeno
emergente, en la medida que son responsables de la
relación de retroalimentación dinámica de los
organismos con el ambiente, de su capacidad de auto-
organizar sus procesos de desarrollo, de su capacidad
de adaptación a tensiones ambientales cambiantes y
de los procesos mediante los cuales las células o los
tejidos están sujetos a un cambio hacia formas o
funciones más especializadas (Hensel, et al., 2006, p.
6).
En correspondencia con estas características
observadas en los sistemas naturales, los métodos
elaborados por el grupo se han orientado hacia una
exploración de la evolución biológica como una
estrategia significativa para el diseño, de la producción
de morfologías variadas como medio para generar
diversos tipos de organizaciones e intensidades, y de
la construcción de la arquitectura como ecología, es
decir, como un fenómeno que envuelve relaciones
dinámicas y variables, al igual que una modulación
mutua entre sus partes. (Hensel & Menges, 2006,
Weinstock, 2006, 2006a)
Lo anterior mediante la integración de una serie de
herramientas que incluyen diversos métodos
disponibles para modelar digitalmente el crecimiento
biológico, informado por un ambiente anfitrión y en
Figura 11
Dentro de la misma linea de su trabajo
con el Emergence and Design Group,
Menges ha consolidado en el ICD una
agenda de investigación que explora la
retroalimentación entre la computación,
la simulación avanzada y la fabricación
digital, como el medio para explorar el
comportamiento material como factor
generativo en el diseño. Fuente: AD,
2012. Vol. 82-2.
174
función de parámetros ambientales, herramientas computacionales de diseño y análisis, al
igual que una indagación sobre la posible articulación de estas herramientas con los avances
en campos de investigación como la ingeniería bio-mimética, la vida artificial y la ciencia de
materiales. De esta manera las preferencias del diseño pueden ser combinadas con una
definición paramétrica y ser al mismo tiempo informadas por un contexto material y
ambiental.
La misma cuestión aparece en el trabajo desarrollado por Menges en el Institute of
Computational Design (Fig.11). El ICD ha explorado la retroalimentación entre el diseño
computacional, la simulación avanzada y la fabricación digital como el medio para expandir el
espacio de diseño gracias a las posibilidades de permitir al comportamiento material desplegar
estructuras performativas. Para Menges esta aproximación “permite una mayor integración en
una multitud de niveles”, gracias al análisis del comportamiento material de los elementos del
objeto arquitectónico, de su interacción mutua y de su interacción “dentro de un campo de
varias influencias externas.” (Menges, 2012, p. 20)
Esta concepción del diseño, basada en la reconciliación de la computación y los aspectos
materiales de la arquitectura, constituye el paradigma de una nueva manera de pensar la
relación entre forma y performance.
67
En palabras de Hensel y Menges, esta pragmática del
diseño arquitectónico parte de la consideración que gracias a la interacción “entre diferentes
criterios intrínsecos al sistema, y posiblemente en conflicto, como las restricciones de
manufacturación y construcción introducidas en la definición paramétrica subyacente y las
múltiples influencias ambientales, el sistema debería desplegar niveles crecientes de
articulación compleja que podrían ser clasificados de acuerdo a su habilidad para satisfacer
múltiples fines y objetivos de performance.” (Hensel & Menges, 2006, p. 88)
La descripción anterior, que resume claramente los objetivos perseguidos por las prácticas de
diseño emergente, es también representativa del punto que se ha tratado de señalar a lo largo
de este capítulo, a saber, del vínculo que estos modelos mantienen con las construcciones
cibernéticas de la arquitectura.
67
Entre las investigaciones llevadas a cabo actualmente en este sentido se puede mencionar el trabajo
experimental desarrollado por el Institute of Computational Design, por el Mediated Matter Research Lab, por el
Self-Assembly Lab y el Baubotanik research group, entre otras. Todas estas prácticas se han enfocado en el estudio
de la materialidad como punto de partida de procesos de diseño exploratorios, y en el empleo de la computación
como herramienta para informar el diseño a través de las características y el comportamiento material y al mismo
tiempo informando la organización de la materia en base a la retroalimentación con el ambiente.
6. Fenómenos complejos
175
Este vínculo aparece claramente representado por la cercanía de los modelos en cuestión con
una ontología y una epistemología informacional, explorada a través de los conceptos
heredados de la ciencia de la complejidad. Crucialmente, las elaboraciones de la arquitectura
como fenómenos complejos, que aquí se han definido como modelos emergentes, han
definido una agenda de investigación en el diseño donde los problemas disciplinares han sido
pensados alrededor de los mismos problemas planteados por los modelos analizados en los
capítulos precedentes.
6.9 Conclusión
En la primera parte de este capítulo se indicó el vínculo existente entre la ciencia de la
complejidad y el modelo cibernético. De este modo se trató de mostrar en qué sentido el
pensamiento de la complejidad se ha construido en referencia una visión del mundo como un
vasto conjunto de sistemas integrados, retroalimentados y auto-regulados, cuyas dinámicas
dan origen a formas complejas de organización que se encontrarían por todas partes en los
sistemas naturales.
En base a lo anterior se ha señalado que, en correspondencia con los postulados del
paradigma de la complejidad, en el campo del diseño computacional se han elaborado visiones
de la arquitectura como un fenómeno emergente. Se trata de visiones que han explorado una
concepción de los problemas de diseño como sistemas auto-organizados, como sistemas
abiertos cuyas conexiones internas y con el medio ambiente permiten el surgimiento de una
realidad espacial compleja, que incluye entre sus aspectos determinantes los aspectos
materiales de los edificios. Esta ontología del diseño ha sido investigada mediante una manera
de construir los problemas disciplinares que retoma los mismos aspectos investigados en los
modelos performativos, sistémicos y genéticos, analizados en los capítulos precedentes: la
definición de la arquitectura como un sistema, como un fenómeno dinámico e integrado con el
medio ambiente, como un mecanismo codificado y basado en reglas, y como un artefacto
análogo en su funcionamiento a los sistemas naturales.
***
176
Con esta mirada a las construcciones emergentes de la arquitectura se completa el panorama
propuesto sobre cómo la perspectiva computacional en la profesión se ha construido como un
proceso de retroalimentación entre el mundo de las ideas y el mundo de la técnica; donde los
modelos de pensamiento asociados a los discursos de la información han jugado un papel tan
relevante como las tecnologías informáticas. Junto con los capítulos precedentes, este análisis
constituye una mirada que permite comprender las relaciones intrincadas entre la producción
computacional de la arquitectura y un profundo cambio de paradigma en la cultura y el
conocimiento contemporáneos; cambio de paradigma que se consolidó a mediados del siglo
pasado gracias a los importantes cambios epistemológicos y tecnológicos asociados al
nacimiento de la sociedad de la información.
7. Una mirada crítica
177
7. Una mirada crítica
7.1 Hacia una mirada crítica de la producción computacional de la
arquitectura
Una de las premisas sobre las cuales se planteó el tema de la disertación es que la
comprensión de la evolución de la perspectiva computacional en la arquitectura, tal como ésta
ha sido trazada aquí – o sea, como un proceso de retroalimentación entre conceptos y
tecnologías informacionales –, es una condición necesaria para la construcción de una mirada
crítica de las producciones de la arquitectura computacional. En este sentido, el análisis
propuesto fue concebido como una herramienta que debería ayudar a responder a la pregunta
sobre cómo las elaboraciones cibernéticas de los problemas de diseño son significativas, o no,
para la producción de la arquitectura en el contexto actual.
A manera de ejemplo de cómo este tipo de análisis puede contribuir a responder a esta
pregunta, en las páginas siguientes se propone una breve discusión alrededor de tres aspectos
propios de las diferentes construcciones cibernéticas de la arquitectura estudiadas a lo largo
de la disertación.
Mediante esta reflexión se pretende señalar ciertos elementos significativos del cambio de
paradigma inherente a las elaboraciones informacionales de la arquitectura, al igual que
algunos aspectos controversiales, que el análisis planteado permite identificar.
7.2 Utopías, prototipos y ecologías
En las diferentes construcciones cibernéticas del diseño (llámense modelos performativos,
sistémicos, genéticos o emergentes) que se han desarrollado en las últimas décadas alrededor
de los imaginarios promovidos por los discursos de la información, pueden identificarse tres
maneras predominantes de concebir los problemas disciplinares de la arquitectura: se trata de
su construcción como utopías, como prototipos y como ecologías.
68
68
Es intersante anotar que el carácter utópico, prototípico y ecológico de las producciones de la arquitectura
computacional indica una clara relación con otros aspectos de los discursos cibernéticos, más allá de los vínculos
temáticos y tecnológicos señalados en los capítulos anteriores. Entre estos aspectos se puede mencionar la
tendencia en ambos campos a cosificar sus discursos, su carácter profético y su creencia en el potencial del
desarrollo científico como solución a los problemas socio-políticos de su época.
178
Cuando se habla del carácter utópico de la arquitectura digital, aquí se hace referencia
concretamente a una tendencia en este campo que consiste en imaginar escenarios de diseño
caracterizados por el empleo de nuevas herramientas tecnológicas, que, de acuerdo a sus
promotores, transformarían radicalmente la práctica de la profesión, al igual que las
condiciones socio-culturales y materiales del habitar. Este ha sido en gran medida el resultado
de una praxis, común en las producciones digitales, que ha permitido la transposición de
conceptos y tecnologías desarrolladas en diferentes campos del conocimiento científico, a los
problemas disciplinares de la arquitectura.
Lo anterior mantiene un estrecho vínculo con el carácter prototípico de la arquitectura digital,
categoría mediante la cual se pretende señalar la orientación altamente experimental de
muchas de las prácticas desarrolladas en este campo. Como se ha visto a lo largo de la
disertación, se trata de un terreno cuyas exploraciones se han dirigido, en gran parte, hacia la
investigación de diferentes escenarios de diseño y materialización de la arquitectura basados
en la aplicación sistemática de nuevos desarrollos tecnológicos; lo anterior tanto al nivel de los
procesos de proyectación, como al nivel de la definición tectónica de los objetos
arquitectónicos.
En lo que concierne al carácter ecológico de la arquitectura computacional, lo que se pretende
resaltar mediante esta noción es la concepción, ampliamente difundida entre las prácticas
actuales, del hecho arquitectónico como un sistema complejo que, además de los aspectos
materiales de la arquitectura, comprende la interacción de una multiplicidad de factores y
variables, muchos de ellos externos al objeto arquitectónico, como elementos determinantes
para la configuración, o emergencia, de una realidad espacial.
Identificadas estas tres tendencias dominantes en las prácticas de arquitectura computacional
– que en su mayoría pueden asociarse por lo menos con alguno de estos aspectos, cuando no
con todos (Fig.1) –, la pregunta que cabe plantearse es qué aspectos de cada una de estas
tendencias son significativos en términos de las exigencias de la producción del espacio
contemporáneo; o, en su defecto, cuáles de estos aspectos se consideran controversiales y
exigen ser debatidos.
Figura 1.
Este diagrama presenta una clasi
a lo largo de la disertación de acuerdo con las tres categorías propuestas.
pueden asociar con alguna, o varias, de estas categorías.
7.3 Utopías:
¿el proyecto como crítica o la arquitectura de ciencia ficción?
Las visiones utópicas son significativas en la medida que plantean
proyectación de la
arquitectura como crítica de la p
al mismo
tiempo nuevos escenarios para la práctica de la profesión que, en principio, deberían
sugerir solucio
nes a una problemática identifica
digital han tenido la virtud de recuperar el pensamiento utópico
desacreditado tras el fracaso del proyecto moderno,
No obstante, en el campo de la producción computacional de la ar
exploraciones no
se han traducido en
ejercicio intelectual y la producción de arquitecturas que respondan a las complejas
necesidades del habitar.
Por el contrario, estas investiga
frecuencia en la construcción de fic
tecnológicos futuros
han sido
mundo contemporáneo, o en las que los imaginarios cibernéticos de la arquitectura se han
traducido en nuevos estilos arquitectónicos
7. Una mirada crítica
179
Este diagrama presenta una clasi
ficación de algunas de
las prácticas de arquitectura digital mencionadas
a lo largo de la disertación de acuerdo con las tres categorías propuestas.
El diagrama muestra cómo todas se
pueden asociar con alguna, o varias, de estas categorías.
¿el proyecto como crítica o la arquitectura de ciencia ficción?
Las visiones utópicas son significativas en la medida que plantean
el
arquitectura como crítica de la p
roducción arquitectónica actual,
tiempo nuevos escenarios para la práctica de la profesión que, en principio, deberían
nes a una problemática identifica
da. En este sentido muchas prácticas de diseño
digital han tenido la virtud de recuperar el pensamiento utópico
, profundam
desacreditado tras el fracaso del proyecto moderno,
como ejercicio intelectual en la profesión.
No obstante, en el campo de la producción computacional de la ar
se han traducido en
propuestas
que permitan una transi
ejercicio intelectual y la producción de arquitecturas que respondan a las complejas
Por el contrario, estas investiga
ciones se han encerrado con
frecuencia en la construcción de fic
ciones arquitectónicas, donde supue
han sido
presentados como la respuesta a los
problemas
mundo contemporáneo, o en las que los imaginarios cibernéticos de la arquitectura se han
traducido en nuevos estilos arquitectónicos
; imaginarios
que reflejan ante todo una
7. Una mirada crítica
las prácticas de arquitectura digital mencionadas
El diagrama muestra cómo todas se
¿el proyecto como crítica o la arquitectura de ciencia ficción?
el
ejercicio de la
roducción arquitectónica actual,
señalando
tiempo nuevos escenarios para la práctica de la profesión que, en principio, deberían
da. En este sentido muchas prácticas de diseño
, profundam
ente
como ejercicio intelectual en la profesión.
No obstante, en el campo de la producción computacional de la ar
quitectura, estas
que permitan una transi
ción entre el
ejercicio intelectual y la producción de arquitecturas que respondan a las complejas
ciones se han encerrado con
ciones arquitectónicas, donde supue
stos desarrollos
problemas
del habitar en el
mundo contemporáneo, o en las que los imaginarios cibernéticos de la arquitectura se han
que reflejan ante todo una
180
fascinación por lo complejo y lo orgánico, y que, en la mayoría de los casos, han desatendido
las cuestiones tectónicas de su producción material.
Entonces, al tiempo que las construcciones cibernéticas de la arquitectura han fortalecido el
loable renacer del pensamiento utópico en la profesión, este mismo carácter utópico ha
conducido con frecuencia a la producción de imaginarios de la arquitectura completamente
desligados de los problemas concretos y apremiantes del habitar.
7.4 Prototipos: ¿la técnica como medio o como fin?
En lo que atañe al carácter prototípico de la arquitectura computacional, el panorama que
presentan sus producciones coincide con las derivas propias de las exploraciones de carácter
utópico. Aunque es significativo el interés en este campo por encontrar usos a los desarrollos
tecnológicos con el fin de proponer mejores soluciones a los problemas de diseño – por
ejemplo, en muchos casos este interés se ha articulado con la preocupación por racionalizar el
consumo de recursos y minimizar el impacto medioambiental de los espacios construidos –,
este interés ha venido de la mano con una firme creencia en el arreglo tecnológico, en el poder
de la tecnología para resolver los problemas del habitar contemporáneo.
En consecuencia, muchas exploraciones de la arquitectura computacional constituyen ante
todo visiones prospectivas de los procesos de diseño, y especialmente de la producción
material de la arquitectura, definidas por condiciones tecnológicas que se encuentran lejos de
ser aplicables en el grueso de la producción arquitectónica actual. Lo anterior se ha reflejado
en una clara tendencia en este campo a producir proto-arquitecturas experimentales,
definidas por escenarios de diseño excesivamente simplificados, o que sólo se concentran en
los factores tecnológicos de su producción. De este modo se dejan por fuera de la reflexión
una cantidad considerable de aspectos fundamentales para la elaboración de todo proyecto de
arquitectura.
Al igual que en el caso anterior, mientras que las visiones tecno-científicas de la arquitectura
cibernética han permitido imaginar escenarios donde los factores tecnológicos aparecen como
un medio idóneo para explorar visiones ecológicas de los problemas de diseño, la
consideración de los factores tecnológicos como aspecto central de la producción de la
arquitectura ha derivado en experimentos desconectados, en muchos casos, de las realidades
socio-políticas implícitas en el diseño del espacio. De este modo se ha abierto paso una
7. Una mirada crítica
181
tendencia a considerar los problemas de la arquitectura desde una postura manifiestamente
tecnocrática.
7.5 Ecologías: ¿ sistemas retroalimentados o la retroalimentación como
estrategia retórica?
En lo que concierne al carácter ecológico de las elaboraciones de la arquitectura
computacional, es significativo de ésta visión su profunda influencia para el desarrollo de
diversas aproximaciones del diseño que han puesto en el centro de los problemas disciplinares
cuestiones como la relación del edificio con el contexto y la percepción de los habitantes. Esta
manera de concebir los problemas de la arquitectura ha sido profundamente relevante, no
sólo para concebir nuevos escenarios de diseño tecnológicamente mediados, sino para la
consolidación de una ética medioambiental en la profesión.
Sin embargo, la investigación de la concepción ecológica de la arquitectura parece haber
confundido en muchos casos los medios y los fines. En múltiples ejemplos se observa de
manera patente que la exploración del proceso de diseño como un sistema de
retroalimentación se ha considerado como en un fin en sí mismo. Lo anterior aparece
claramente en la abundante exploración de métodos orientados hacia la definición de
procesos (homeostáticos, auto-organizados, emergentes) automatizados de diseño, donde la
puesta en escena de una compleja gimnasia computacional, y formal, se pone por encima de
la cuestión de la producción de una arquitectura realmente ecológica o sistémica.
En consecuencia, en el caso de las exploraciones ecológicas se observa la misma deriva propia
del las construcciones utópicas y prototípicas de la arquitectura digital. Así, la idea de concebir
de manera sistémica los problemas de diseño, visión que abre interesantes posibilidades para
pensar la arquitectura como ecología, con frecuencia se ha limitado a la exploración
metafórica de esta idea, que se ha materializado sobre todo en la definición de los procesos
(computacionales) de diseño como sistemas autónomos, auto-regulados, etcétera.
***
Estas breves reflexiones permiten identificar cómo tres aspectos sobresalientes de las
construcciones cibernéticas de la arquitectura pueden constituir valiosos aportes para la
producción del espacio y del pensamiento arquitectónico contemporáneo, al tiempo que éstos
han tendido a derivar en experimentos que, desde mi punto de vista, sólo tienen valor si se les
considera como un ejercicio intelectual desligado del problema concreto de la arquitectura. Es
182
decir, de la cuestión de diseñar y construir espacios habitables significativos, capaces de
responder a las condiciones complejas de un contexto específico.
Esta dualidad refleja un aspecto de las prácticas de arquitectura computacional que merece
particular atención. Se trata de una tendencia, bastante común entre las elaboraciones en este
campo, que consiste en pasar de la definición de escenarios para la producción de la
arquitectura apoyados en discursos y tecnologías informacionales, a la definición de escenarios
en los que estos recursos (discursos y tecnologías) se autonomizan de los múltiples factores
que definen los problemas disciplinares de la arquitectura. Esta tendencia se puede asociar
con lo que Katherine Hayles ha identificado, en su análisis del pensamiento cibernético, como
el backhand y el forehand platónico.
7.6 El backhand y el forehand platónico en la arquitectura computacional
Hayles llama backhand platónico al trabajo, común en la ciencia, de inferir de la complejidad
del mundo abstracciones simplificadas. Según la autora, un problema aparece cuando esta
relación se invierte, es decir, cuando la abstracción viene a sustituir al fenómeno original. Por
ejemplo, cuando se pasa de la concepción de un fenómeno en base a un modelo (la
cibernética) que representa los fenómenos en el mundo como mecanismos comunicacionales,
a concebir el universo como un vasto programa computacional. Este tipo de maniobra es lo
que Hayles llama el forehand platónico (Hayles, 1999).
En las elaboraciones de la arquitectura computacional este tipo de maniobra es bastante
común. De hecho es bastante habitual encontrar en sus producciones modelos que parten de
una concepción de los problemas de diseño inspirada en metáforas tecno-científicas, y
terminan planteando visiones de la arquitectura como cosificación de dichas metáforas.
Un buen ejemplo de lo anterior es el caso de los modelos inspirados en la codificación
genética, que, mediante este tipo de estrategia, han pasado de la definición de procesos
algorítmicos de diseño, a la consideración de los edificios como si fueran organismos
genéticamente codificados. Del mismo modo, claramente no es lo mismo adaptar el modelo
sistémico desarrollado por Bertalanffy a los problemas de la arquitectura, es decir, emplear
una abstracción construida en el mundo de la ciencia para definir los problemas de diseño, que
pensar en los edificios literalmente como sistemas abiertos, o sea, concebirlos como si fueran
realmente organismos regulados por mecanismos homeostáticos.
7. Una mirada crítica
183
Los ejemplos en los que las metáforas elaboradas para caracterizar los problemas de diseño se
han confundido con los objetos concretos de la arquitectura abundan en este campo.
Así, aunque parece razonable pensar que los modelos científicos deberían operar en un plano
metafórico en las en las elaboraciones del diseño computacional, en la práctica estas
metáforas informacionales de los problemas disciplinares han sido confundidas a menudo con
la arquitectura misma. En consecuencia las caracterizaciones tecno-científicas de los
problemas disciplinares han aparecido frecuentemente desligadas de los problemas concretos
de la arquitectura. En este sentido, en este campo se observa una oscilación entre el empleo
de los discursos científicos como metáfora y la cosificación de estos discursos.
Algo similar ocurre con el empleo de las tecnologías de la información en este campo. Se trata
de un fenómeno que es posiblemente, al menos en parte, el resultado de la cosificación de las
metáforas informacionales sobre las cuales se han construido los imaginarios dominantes en
las prácticas de arquitectura computacional. Aunque se asume que la tecnología debería ser
concebida como un medio en la producción de la arquitectura, en muchos casos las cuestiones
técnicas se han autonomizado de la compleja red de problemas que definen un problema de
diseño, convirtiéndose su empleo en un fin en sí mismo. En este sentido, en la arquitectura
computacional se observa una oscilación entre el empleo de la técnica como medio y el
empleo de la técnica por la técnica.
El resultado de estos dos aspectos recurrentes, y estrechamente vinculados, en las prácticas de
diseño computacional (la cosificación de los discursos y la autonomización de la técnica), ha
sido la definición de escenarios de diseño donde tanto los problemas planteados, como los
medios tecnológicos empleados, mantienen, en muchos casos, un vínculo bastante impreciso
con los problemas centrales de la profesión.
Una explicación posible de esta dualidad es que una vez que la abstracción (el sistema abierto
o el organismo genéticamente codificado, por ejemplo) ha sustituido el objeto concreto de la
arquitectura (el edificio), parece una consecuencia normal que los modelos elaborados, al igual
que los medios empleados, aparezcan desligados del objetivo de diseñar espacios
significativos.
No obstante, esta deriva no tiene por qué ser una inevitabilidad, como lo pretenden quienes
ven con desconfianza la introducción de nuevas herramientas tecnológicas en los procesos de
producción de la arquitectura. Como se ha señalado arriba, la ontología y la pragmática
informacional también pueden proveer valiosas herramientas, intelectuales y técnicas, para el
184
desarrollo de escenarios de diseño que no se encuentren encerrados en ficciones ciber-
tecnológicas.
7.7 El análisis como herramienta
Una de las condiciones para el desarrollo de escenarios digitales de diseño que no se
encuentren enfrascados en la cosificación de los imaginarios sobre los cuales se ha construido
la arquitectura computacional, o en la fascinación con el empleo de la tecnología, es que los
profesionales implicados en este campo asuman una posición crítica frente al desarrollo de
esta perspectiva en la profesión. Como lo advertían William Mitchell y Malcom McCullough en
Digital Design Media, para esto es necesario analizar las condiciones que han estructurado el
trabajo intelectual de los arquitectos digitales (Mitchell & McCullough, 1995, p. 8).
Al señalar cómo una serie de aspectos relevantes para la construcción de la cultura informática
han sido cruciales para la consolidación de esta perspectiva, uno de los objetivos de la
reflexión aquí planteada ha sido contribuir a la comprensión compleja de los factores que han
dado forma al campo de la arquitectura digital.
Como se ha visto en las páginas precedentes, el estudio de la evolución de las ideas sobre las
cuales se ha consolidado este campo permite identificar diversos ejemplos en los que las
elaboraciones cibernéticas de los problemas disciplinares pueden ser fructuosas para el
ejercicio de la arquitectura, sin que por esto sus producciones tengan qué limitarse a la
construcción de imaginarios de ciencia ficción, o estar sujetas únicamente a las condiciones
tecnológicas de su producción. Por otra parte, al identificar ciertos aspectos controversiales, la
reflexión invita al desarrollo de una mirada crítica de la producción digital de la arquitectura,
necesaria en un contexto en el que la informatización de la arquitectura se ha venido
consolidando como la nueva vanguardia de la profesión.
8. Conclusiones
185
8. Conclusiones
8.1 Narrativas cibernéticas y arquitectura
computacional
A lo largo de esta disertación se han presentado
diferentes escenarios que muestran de qué manera las
visiones dominantes de los problemas de diseño
construidas en el campo de la arquitectura
computacional, mantienen un vínculo directo con el
paradigma de pensamiento teorizado por los
cibernéticos.
En base a un modelo de análisis que considera que los
diferentes aspectos (políticos, científicos, tecnológicos,
artísticos, etcétera) que definen “el mundo social de la
vida”, o la cultura, se construyen juntos, el análisis
propuesto parte de comprender de qué manera los
discursos del performance, que han prevalecido como
idea dominante en el campo de la arquitectura
computacional, se desprenden de la visión de los
fenómenos en el mundo promovida por la teoría
cibernética.
Partiendo de esta constatación, expuesta en el
capítulo 3, se ha tratado de mostrar cómo, alrededor
de los mismos temas sobre los que se construyeron los
discursos del performance design, se han elaborado
nuevas visiones de la arquitectura que han sido
pensadas en referencia a diferentes campos del
conocimiento científico, igualmente herederos del
paradigma informacional. Junto con los temas tratados
en los capítulos 4, 5 y 6, este análisis pretende señalar
8.1 Narratives cybernétiques et
architecture numérique
A travers cette recherche ont été
présentés divers scénarios qui montrent
de quelle façon les visions dominantes
des problèmes de conception construites
dans le domaine de l’architecture digitale
gardent un lien direct avec les
paradigmes de pensée théorisés par les
cybernéticiens. A partir d’un modèle
d’analyse qui considère que les divers
aspects (politiques, scientifiques,
technologiques, artistiques, etc.) qui
définissent « le monde social de la vie »,
c'est-à-dire la culture, se construisent
ensemble, l’analyse part de la
compréhension de la manière dont les
discours de la performance, qui ont
prévalues comme idée dominante dans ce
domaine, proviennent de la vision des
phénomènes dans le monde avancée par
la théorie cybernétique.
A partir de cette constatation, exposée
dans le chapitre 3, la thèse explore
comment autour des mêmes sujets sur
lesquels se sont construits les discours du
« performance design » se sont
développé des nouvelles visions de
l’architecture qui ont été conçues en
référence à d’autres champs de la
connaissance scientifiques, également
héritiers du paradigme informationnel.
Avec les sujets traités dans les chapitres
4, 5 et 6, l’analyse démontre les liens
existants entre les narratives
cybernétiques et les discours sur lesquels
s’est basée la pratique numérique de
l’architecture. Dans ce sens là, les
modèles digitaux de conception
apparaissent comme un exemple du type
d’échange des idées entre la cybernétique
et d’autres domaines de la connaissance
que Bowker définit comme un « effet de
triangulation » dans son article « How to
be universal : some cybernetics strategies
».
186
los vínculos existentes entre las narrativas
cibernéticas, y los discursos sobre los cuales se ha
sustentado la práctica computacional de la
arquitectura. En este sentido los modelos
computacionales de diseño aparecen como un
ejemplo del tipo de intercambio de ideas entre la
cibernética y diferentes disciplinas que Bowker define
como un “efecto de triangulación” en su artículo How
to Be Universal: Some Cybernetic Strategies .
69
Con el fin de ilustrar lo anterior, se ha propuesto una
mirada a ciertos aspectos del desarrollo y evolución de
la perspectiva computacional en la arquitectura como
un proceso en el que la producción de nuevas
metodologías de diseño, basadas en el empleo de las
herramientas informáticas, ha sido indisociable de la
construcción de nuevos discursos sobre la arquitectura
profundamente permeados por una serie de ideas
heredadas de diferentes campos del conocimiento
estrechamente relacionados con la teoría cibernética.
En el capítulo 4, partiendo del análisis del vínculo
entre la teoría de sistemas y la teoría cibernética, se
señaló de qué manera la visión sistémica subyace a la
concepción de la arquitectura explorada por diversas
prácticas de diseño computacional: su visión holística
de los problemas de diseño y la definición de los
objetos arquitectónicos como sistemas abiertos,
dinámicos y homeostáticos. El análisis planteado
también indaga sobre al impacto de estos imaginarios
para el desarrollo de una nueva “biologización” de la
arquitectura, propia de muchas producciones
computacionales.
69
Véase al respecto: capítulo 2, pp. 43-45
Avec l’objectif d’illustrer cette
triangulation, on a proposé un regard sur
certains aspects du développement et de
l’évolution de la perspective numérique
en architecture comme un processus dans
lequel la production de nouvelles
méthodes de conception, basée sur
l’emploi des outils informatiques, a été
indissociable de la construction des
nouveaux discours sur l’architecture
pénétrés par les idées cybernétiques.
Dans le chapitre 4, à partir de l’analyse
du lien entre la théorie des systèmes et la
théorie cybernétique, a été indiqué de
quelle manière la vision systémique est
sous jacente à la vision de l’architecture
explorée par diverses pratiques
d’architecture numérique : sa vision
holistique des problèmes de conception et
la définition des objets architecturaux
comme des systèmes ouverts,
dynamiques, et homéostatiques. Cette
analyse cherche aussi l’impact de ces
imaginaires pour le développement d’une
nouvelle « biologisation » de
l’architecture, propre à plusieurs
productions numériques.
Suivant cette idée, dans le chapitre 5 est
examiné la connexion existante entre les
modèles génétiques de conception et la
pensée informationnelle. Ceci prenant en
compte l’importance de l’influence du
modèle cybernétique dans le
développement des deux champs de
recherche dans la biologie, la biologie
moléculaire et la bioinformatique, qui ont
influencé les imaginaires de l’architecture
digitale. De cette manière, il a été
observé un lien entre les caractérisations
cybernétiques de l’architecture et sa
conception comme un mécanisme
génétiquement codifié, comme des
systèmes adaptatifs dessinés à travers
des systèmes d’échantillonnages
stochastiques, et comme des systèmes
émergents qui pourraient éventuellement
devenir biologiques.
8. Conclusiones
187
Siguiendo esta pista, en el capítulo 5 se examinó la
conexión existente entre los modelos genéticos de
diseño y el pensamiento informacional. Lo anterior
teniendo en cuenta la importancia de la influencia del
modelo cibernético en el desarrollo de dos campos de
investigación en la biología, la biología molecular y la
biología computacional, que han permeado
profundamente los imaginarios de la arquitectura
digital. De este modo se ha examinado el vínculo entre
las caracterizaciones cibernéticas de la arquitectura y
su concepción como un mecanismo codificado
genéticamente, como sistemas adaptativos diseñados
mediante mecanismos algorítmicos de búsqueda
estocástica, y como sistemas emergentes que podrían
eventualmente alcanzar la biología.
En el capítulo 6 se estudió cómo la concepción de la
arquitectura como un sistema emergente, visión
propia de los modelos genéticos y otras exploraciones
algorítmicas del diseño, ha dado paso a la
representación de los objetos arquitectónicos como
fenómenos complejos. A partir del análisis de la
relación entre la cibernética y la ciencia de la
complejidad, se ha explorado cómo los modelos
emergentes de diseño se han construido en base a las
nociones centrales promovidas por este modelo
científico. El análisis muestra cómo desde este
paradigma de pensamiento los edificios han sido
concebidos como sistemas emergentes y auto-
organizados, como el resultado de la interacción de
múltiples elementos, incluidos los aspectos materiales
de la arquitectura, de los cuales surge una realidad
espacial compleja.
Dans le chapitre 6, il a été étudié de
quelle façon la conception de
l’architecture comme un système
émergent, vision propre au modèle
génétique et autres explorations
algorithmiques du dessin, a donné lieu à
la représentation des objets
architecturaux comme des phénomènes
complexes. En analysant la relation entre
la cybernétique et la science de la
complexité, il a été exploré de quelle
manière les modèles émergents de
conception se sont construits sur les
notions centrales de ce dernier modèle
scientifique. L’analyse montre comment
depuis ce paradigme de pensée les objets
architecturaux ont été conçus comme des
systèmes émergents et auto-organisés,
comme le résultat de l’interaction de
multiples éléments, y compris les aspects
matériaux de l’architecture, interaction
de laquelle est née une réalité spatiale
complexe.
Cette approche de l’évolution de quelques
idées qui ont donné forme à la
perspective digitale en architecture
confirme la thèse selon laquelle
l’hypothèse de la recherche s’est
structurée. A savoir, que l’exploration de
l’emploi de l’informatique dans la
conception architectural a été
inséparable de la construction des visions
des problèmes disciplinaires qui se
dégagent de l’ontologie promu par la
théorie cybernétique, de sa conception de
la nature des choses dans le monde.
Seulement en comprenant cela on peut
penser comment l’architecture est arrivé
à être conçue comme un système
gouverné par les mêmes facteurs qui
définissent les mécanismes
cybernétiques: communication, retro
alimentation, codification, intégration,
autorégulation, auto organisation, etc.
Comme cela a été vu précédemment, ces
visions des problèmes disciplinaires se
sont articulées avec le développement
des techniques et méthodes de
conception correspondantes, qui incluent
notamment la définition paramétrique de
l’architecture, le développement des
techniques algorithmiques de projection,
et l’articulation dans les processus de
conception des divers outils de simulation
et analyse. Cette pragmatique numérique
n’a pas seulement permis de définir les
processus de conception comme des
systèmes retro alimentés basés sur la
manipulation des flux d’information, mais
188
Esta mirada a la evolución de algunas de las ideas
dominantes que han dado forma a la perspectiva
computacional en la arquitectura confirma la tesis
sobre la cual se ha estructurado el argumento de la
disertación. A saber, que la exploración de los usos de
la informática en el diseño arquitectónico ha sido
inseparable de la construcción de visiones de los
problemas disciplinares que se desprenden de la
ontología promovida por la teoría cibernética, de su
concepción de la naturaleza de las cosas en el mundo.
Solamente si se comprende lo anterior puede
entenderse cómo la arquitectura ha llegado a ser
pensada como un sistema gobernado por los mismos
factores que rigen a los mecanismos cibernéticos:
comunicación, retroalimentación, codificación,
integración, auto-regulación, auto-organización,
etcétera.
Como se ha visto mediante el desarrollo de los temas
planteados, estas visiones de los problemas de la
arquitectura se han articulado con el desarrollo de
técnicas y metodologías de diseño correspondientes,
que incluyen notablemente la definición paramétrica
de la arquitectura, el desarrollo de técnicas
algorítmicas de proyectación y la articulación en los
procesos de diseño de diferentes herramientas de
simulación y análisis. Esta pragmática computacional
no sólo ha permitido definir los procesos de diseño
como sistemas de retroalimentación basados en la
manipulación de flujos de información, sino que
además ha reforzado los imaginarios cibernéticos de
los problemas disciplinares.
Es en este sentido que se puede afirmar que el
paradigma informacional en la profesión ha operado a
elle a permis de renforcer les imaginaires
cybernétiques des problèmes
disciplinaires.
C’est dans ce sens que l’on peut affirmer
que le paradigme informationnel dans
l’architecture a opéré à la fois comme
ontologie et comme pragmatique de sa
production digitale. Ici apparait le second
aspect des hypothèses avancées. Il s’agit
du fait que en étant considéré comme le
résultat d’une dynamique qui implique
tant les technologies de l’information
comme la vision informationnelle du
monde, les productions de l’architecture
numériques, doivent etre pensées comme
un « travail de médiation » dont la
compréhension ne peut pas être limitée a
la question de l’impact de l’informatique
dans la profession.
Pour illustrer le précédent il suffit
d’observer dans quel sens l’évolution des
idées sur lesquelles s’est construit la
perspective digitale en architecture, telle
que celle-ci a été présenté ici, peut être
expliquée comme un système de
sériation, dans le sens de ce qui est
proposé par Katherine Hayles pour
montrer le développement parallèle du
monde de la technique et du monde des
idées (Hayles, 1999).
Comme cela a été montré, les premières
expériences avec l’informatique dans
l’architecture étaient inséparables de la
définition, sous l’influence du paradigme
cybernétique, des nouvelles manières de
penser le statut des objets architecturaux.
C’était de cette manière que
l’architecture a commencé à être conçue
comme un phénomène gouverné par une
logique communicationnelle. Ce
changement de paradigme a donné lieu,
d’un coté, au développement de
nouvelles méthodes de conception
médiatisée par des technique basées sur
la manipulation de données et, de l’autre
coté, à la construction de nouveaux
imaginaires des objets architecturaux en
référence à des concepts héritées du
monde de la science, particulièrement des
modèles développées sous l’influence des
discours de l’information. De cette
manière c’est établi une dynamique dans
laquelle les imaginaires cybernétiques de
l’architecture ont motivés le
développement
8. Conclusiones
189
la vez como ontología y como pragmática de la
producción computacional de la arquitectura. Aquí
aparece el segundo aspecto de la tesis sobre la cual se
ha construido el argumento. Se trata del hecho que al
ser concebidas como el resultado de una dinámica
que involucra tanto las tecnologías de la información,
como la visión informacional del mundo, las
producciones de la arquitectura digital deben ser
pensadas como un “trabajo de mediación”, cuya
comprensión no puede limitarse a la cuestión del
impacto de la informática en la profesión.
Para ilustrar lo anterior basta observar en qué sentido
la evolución de las ideas sobre las que se ha
construido la perspectiva computacional en la
arquitectura, tal como ésta ha sido presentada a lo
largo de la disertación, puede explicarse como un
sistema de seriación, tal como éste ha sido expuesto
por Katherine Hayles,
70
para mostrar el desarrollo
paralelo del mundo de la técnica y del mundo de las
ideas (Hayles, 1999).
Como se ha señalado aquí, las primeras exploraciones
del empleo de la informática en el diseño fueron
inseparables de la elaboración, bajo la influencia del
paradigma cibernético, de nuevas maneras de
concebir el estatus de los hechos arquitectónicos. Fue
de este modo que comenzó a pensarse la arquitectura
como un fenómeno gobernado por una lógica
comunicacional. Este cambio de paradigma dio paso,
por una parte, al desarrollo de nuevas metodologías
de concepción mediadas por técnicas basadas en la
manipulación de datos, y, por otra parte, a la
70
Véase al respecto: capítulo 2, p.30
des méthodes informationnelles de
conception, en même temps que l’emploi
de ces derniers a renforcé des visions
informationnelles dans l’architecture.
De cette dynamique ont émergé diverses
manières de concevoir les problèmes
disciplinaires, basés sur l’application (ou
développement) permanent des
nouveaux outils informatiques, ainsi que
sur l’introduction de nouvelles références
technoscientifiques qui, crucialement,
s’inscrivent elles aussi dans l’épistème
informationnel. Dans ce sens l’évolution
de l’architecture numérique apparait
comme un processus de retro
alimentation entre concepts et
technologies informationnelles qui ont
impulsé de manière permanente le
développement de nouvelles explorations
théoriques et pratiques (fig.1).
Dans l’introduction de la thèse il a été
avancé que la compréhension de cette
dynamique est une condition pour la
construction d’un regard critique de la
production digitale de l’architecture,
nécessaire dans un contexte où cette
approche s’est peu à peu consolidée
comme la nouvelle avant-garde de la
profession. Dans ce sens l’analyse a été
conçue comme un outil qui devrait aider à
répondre à la question sur la manière
dont les élaborations cybernétiques de
l’architecture sont significatives, ou non,
pour la pratique professionnelle dans le
contexte actuel.
Pour répondre à cette question, la
réflexion avancée dans le chapitre 7
discute de quelle façon le caractère
utopique, prototypique, et écologique des
constructions cybernétiques analysées
tout au long de la thèse, représente un
précieux apport pour la production de la
pensée et de l’espace architectonique
contemporain. En même temps, la
discussion met en exergue dans quel sens
ces mêmes aspects mettent en évidence
une tendance, très commune parmi les
élaborations dans ce domaine, qui
consiste à passer de la définition de
scénarios pour la production de
l’architecture basés sur des discours et
technologies informationnelles, à la
définition de scénarios dans lesquels ces
190
construcción de nuevos imaginarios de los objetos
arquitectónicos en referencia a conceptos heredados
del mundo de la ciencia, particularmente de modelos
desarrollados bajo el influjo de los discursos de la
información. De este modo se ha establecido una
dinámica en la que los imaginarios cibernéticos de la
arquitectura han impulsado el desarrollo de métodos
informacionales de diseño, al tiempo que el empleo de
estos últimos ha reforzado la construcción de visiones
informacionales de la arquitectura.
De esta dinámica circular han surgido diversas
maneras de pensar los problemas disciplinares,
basadas en la aplicación (o desarrollo) permanente de
nuevas herramientas informáticas, al igual que en la
introducción en sus elaboraciones de nuevas
referencias tecno-científicas, que, crucialmente,
también se inscriben dentro del espíteme
informacional. En este sentido la evolución de la
arquitectura digital aparece como un proceso de
retroalimentación entre conceptos y tecnologías
informacionales, que ha dado un impulso permanente
al desarrollo de nuevas exploraciones teóricas y
prácticas (Fig.1).
recours (discours et technologie)
s’autonomisent de la multiplicité des
facteurs qui définissent les problèmes
disciplinaires de l’architecture.
En présentant un panorama ample qui
identifie les conditions intellectuelles sur
lesquelles se sont structurées les
productions digitales de l’architecture,
l’étude permet d’analyser les possibles
causes de cette tendance, en même
temps qu’il montre les potentiels du
modèle cybernétique pour penser une
architecture qui ne soit pas forcément
limitée à la production de fictions cyber
technologiques.
8.2 Etendue et limites de l’étude
Il est important de clarifier que l’emphase
mis sur l’étude de l’influence de la pensée
informationnelle dans l’architecture
n’ignore pas la pertinence d’une
multiplicité de facteurs de la production
architecturale qui ne rentrent dans cette
approche. Même si il est évident que tous
les facteurs laissés de coté par l’analyse
sont fondamentaux pour la construction
de la connaissance de l’architecture, il est
considéré qu’une meilleure
compréhension des sujets traités ici
contribue à mieux situer l’émergence et
l’évolution de la perspective numérique
en architecture. Comme cela a déjà été
mentionné par ailleurs, Celle-ci est une
condition pour le développement d’une
posture critique face à un phénomène
qui, dans les dernières années, a gagné
de plus en plus d’adeptes parmi les jeunes
architectes et également parmi les
pratiques professionnelles établies et les
cercles académiques.
Il faut également rappeler que
l’architecture numérique est un terrain de
recherche expérimental, et en pleine
expansion, qui se nourrit d’une grande
variété de références croisées à des divers
modèles technologiques et scientifiques.
Ces facteurs entrainent une certaine
difficulté pour construire un panorama
global des explorations cybernétiques de
l’architecture menées dans ce domaine.
8. Conclusiones
191
Figura 1. El diagrama precedente muestra cómo a partir del cambio de paradigma en la arquitectura, que se
desprende del pensamiento cibernético, ha existido una relación estrecha entre los modelos de diseño elaborados,
las técnicas desarrolladas y diversos conceptos heredados de campos del conocimiento científico cercanos al
paradigma informacional.
En la introducción de la disertación se señaló que la
comprensión de lo anterior es una condición para la
construcción de una mirada crítica de la producción
computacional de la arquitectura, necesaria en un
contexto en el que este campo se ha venido
consolidando como la nueva vanguardia de la
profesión. En este sentido, el análisis fue planteado
como una herramienta que debería ayudar a
responder a la pregunta sobre cómo las elaboraciones
cibernéticas de la arquitectura son significativas, o no,
para la práctica de la profesión en el contexto actual.
Para responder a esta pregunta, en la reflexión
presentada en el capítulo 7 se ha tratado de señalar
cómo el carácter utópico, prototípico y ecológico de
las construcciones cibernéticas de la arquitectura
analizadas a lo largo de la disertación, representa
Pour les mêmes motifs, la décision de
cataloguer ces pratiques d’après des
tendances, ou des modèles, bien définis
est d’une certaine façon arbitraire. En
effet, à cause de son interdisciplinarité,
plusieurs pratiques numériques
contemporaines peuvent se situer à la
fois dans des divers catégories énoncés
ici, ou elles peuvent correspondre à
d’autres modèles qui ne sont pas compris
dans cette analyse.
Pour la même raison,
la décision d’établir une relation directe
entre un type d’approche et un modèle
scientifique de référence en particulier,
par exemple, entre la théorie des
systèmes et la définition de l’architecture
comme un phénomène holistique, est
d’une certaine manière simpliste. La
décision de cataloguer différentes
pratiques sous des catégories communes,
et de les analyser en fonction des
relations les plus évidentes des pratiques
en question avec un modèle de pensée en
particulier, répond à l’intérêt de souligner
l’influence de la pensée cybernétique
dans chacun des cas d’étude proposés.
192
valiosos aportes para la producción del pensamiento y
del espacio arquitectónico contemporáneo. Al mismo
tiempo la discusión planteada señala en qué sentido
estos mismos aspectos se han relacionado con una
tendencia, bastante común entre las elaboraciones en
este campo, que consiste en pasar de la definición de
escenarios para la producción de la arquitectura
apoyados en discursos y tecnologías informacionales, a
la definición de escenarios en los que estos recursos
(discursos y tecnologías) se autonomizan de los
múltiples factores que definen los problemas
disciplinares de la arquitectura.
Al presentar un panorama amplio que identifica las
condiciones intelectuales sobre las que se han
estructurado las producciones digitales de la
arquitectura, el estudio planteado permite analizar las
posibles causas de esta tendencia, al tiempo que
señala el potencial del modelo cibernético para pensar
una arquitectura que no se encuentre necesariamente
enfrascada en ficciones ciber-tecnológicas.
8.2 Alcance y limitaciones del estudio
Es importante aclarar que el énfasis puesto en el
estudio del influjo del pensamiento informacional en
la arquitectura no pretende en ningún momento
ignorar la relevancia de una multiplicidad de factores
de la producción arquitectónica que no entran en este
esquema. Aunque es evidente que todos los factores
que el análisis propuesto deja de lado son
fundamentales para la construcción del conocimiento
de la arquitectura, considero que una mejor
Pour expliquer cette série de
simplifications, la thèse avancée par
Gregory Bateson (un cybernéticien!) sur
la classification de la culture en
catégories se révèle utile. Pour Bateson
les catégories « ne sont pas des
subdivisions réelles » mais « tout
simplement des abstractions que l’on
fabrique pour des raisons de commodité»
pour faciliter la tâche de décrire un sujet
d’étude. Il ne faut pas oublier que les
pratiques culturelles ne sont pas, comme
le dirait Bateson, « les étiquettes pour les
divers points de vues que l’on adopte
pour l’analyse. » (Bateson, 1990, p. 79)
Evidemment le spectre des pratiques de
dessin numérique, et la multiplicité des
références qui les unit au paradigme
informationnelle, et également l’influence
de ce paradigme dans divers champs de
la connaissance, est beaucoup plus vaste
et complexe que ce que la portée de ce
travail permet de montrer (les figures 2 et
3 illustrent la différence entre le
traitement donné ici au problème d e
recherche et les relations complexes qui
peuvent être établis entre quelques uns
des sujets traités).
Ainsi ce travail de réflexion ne doit pas
être pensé comme une analyse complète
de l’influence cybernétique dans le
domaine de l’architecture numérique,
sinon, comme une étude qui aspire à
montrer quelques des aspects les plus
évidents de la pénétration de la pensée
informationnelle dans ce terrain.
Bien sur, une étude qui englobe plusieurs
fronts souffre nécessairement de
superficialité. C’est sans doute le cas de
cette recherche. A travers le
développement des sujets traités j’ai pu
constater que la question de la
pénétration du paradigme cybernétique
dans l’architecture est un sujet étendu.
Ainsi son étude détaillée exige une
définition des problèmes de recherche
plus délimités. Cependant cette limitation
de l’étude est compensée par la
compréhension d’un horizon ample qui
permet d’identifier des multiples
perspectives de recherche.
8. Conclusiones
193
comprensión de los temas aquí tratados contribuye a
situar la emergencia y evolución actual de la
perspectiva computacional en la arquitectura. Como
se mencionó arriba, esta es sin duda una condición
para el desarrollo de una postura crítica frente a un
fenómeno que en los últimos años ha venido ganando
cada vez más adeptos entre los arquitectos jóvenes, al
igual que entre muchas prácticas establecidas y en los
círculos académicos.
También cabe señalar que la arquitectura
computacional constituye un terreno de investigación
experimental, y en plena expansión, que se ha
alimentado de una gran variedad de referencias
cruzadas a diversos modelos tecno-científicos. Estos
factores han planteado cierta dificultad para construir
un panorama global de las exploraciones cibernéticas
del diseño llevadas a cabo en este campo.
Por los mismos motivos, la decisión de catalogar sus
prácticas en tendencias, o modelos, bien definidas es
de alguna manera arbitraria. De hecho, por su
interdisciplinaridad misma, muchas de las prácticas de
diseño contemporáneas pueden situarse a la vez en
varias de las categorías aquí planteadas, o pueden
corresponder a otros modelos que no se incluyen en
este análisis. Por la misma razón, la decisión de
establecer una relación directa entre un tipo de
aproximación y un modelo científico de referencia en
particular, por ejemplo, entre la teoría de sistemas y
la definición de la arquitectura como un fenómeno
holístico, es de cierto modo reductora. La decisión de
agrupar diferentes prácticas bajo categorías comunes,
y de analizarlas en base a las relaciones más evidentes
de las prácticas en cuestión con un modelo de
8.3 Perspectives de recherche
L’étude de l’influence du paradigme
cybernétique dans l’architecture ouvre un
grand éventail des possibilités qui
méritent d’être examinées, et qui ont à
peine été mentionnées dans mon travail.
Par exemple parmi les idées qui ont été
explorées, mais que pour des diverses
raisons n’ont pas pu être introduites dans
mon schéma, apparaissent des questions
comme le rapport entre cybernétique,
science fiction et architecture ; le rôle de
l’algorithme comme forme symbolique
dans l’architecture ; et l’influence
cybernétique dans l’architecture non
numérique des figures comme Cedric
Price, Archigram, et Nicolas Schoffer,
entre autres. Identifiées ces diverses
perspectives de recherche, le modèle
d’analyse ici proposé devrait servir
comme point de départ pour des
problématiques mieux délimitées.
***
Mon implication dans ce domaine a inclut
également une exploration de l’emploi
des outils de dessin paramétriques, dans
le cadre de ma participation à l’ENSAG
comme enseignant-assistant du master
«Architecture, Ambiances et Cultures
Numériques », programme académique
adjoint du laboratoire Cresson.
Dans ce contexte j’ai travaillé au
développement d’une méthodologie de
conception orientée vers l’exploration de
l’usage des outils de dessin paramétrique
comme support pour l’agenda de
recherche sur la conception et l’analyse
de l’espace développé par le Cresson. Il
s’agit d’une recherche en cours qui
prétend, prenant en compte la proximité
entre les visions cybernétiques de
l’architecture et la vision de l’espace
habitable promu par le Cresson, explorer
la pertinence de la mise en pratique d’une
logique relationnelle dans la conception
pour soutenir une pratique écologique de
l’architecture (voir annexe).
194
pensamiento en particular, responde al interés de subrayar el influjo del pensamiento
cibernético en cada uno de los casos de estudio planteados.
Para explicar esta serie de simplificaciones resulta útil la explicación propuesta por Gregory
Bateson (¡un cibernético!) de la clasificación de la cultura en categorías. Para Bateson las
categorías “no son subdivisiones reales” sino “simplemente abstracciones que fabricamos por
razones de comodidad” para facilitar la tarea de describir un objeto de estudio. No hay que
olvidar que las prácticas culturales no son, como diría Bateson, “las etiquetas para los
diferentes puntos de vista que adoptamos para el análisis.” (Bateson, 1990, p. 79)
Evidentemente el espectro de las prácticas de diseño computacional y la multiplicidad de
referencias que las unen al paradigma informacional, al igual que la influencia de este
paradigma en múltiples campos del conocimiento, es mucho más amplio y complejo que lo
que permite mostrar el alcance de este trabajo (las figuras 2 y 3 ejemplifican la diferencia
entre el tratamiento aquí dado al problema de investigación planteado y las relaciones
complejas que pueden establecerse entre algunos de los temas planteados).
Figura 2. Esquema del tratamiento de los temas propuestos en la disertación.
8. Conclusiones
195
Figura 3. Representación de las relaciones posibles entre algunos de los temas abordados.
Teniendo en cuenta lo anterior, el trabajo de reflexión presentado no debe pensarse como un
análisis completo del influjo cibernético en el campo de la arquitectura computacional, sino
como un estudio que pretende señalar algunos de los aspectos más evidentes de la
penetración del pensamiento informacional en este terreno.
Desde luego, un estudio que abarca demasiados frentes adolece necesariamente de cierta
superficialidad. Este es sin duda el caso de esta disertación. A través del desarrollo de los
temas planteados he podido constatar que la cuestión de la penetración del paradigma
cibernético en la arquitectura computacional es un tema extenso. Por lo tanto su estudio
minucioso exige definir problemas de investigación mejor delimitados. No obstante, esta
limitación del estudio presentado es compensada por la comprensión de un horizonte amplio,
que permite identificar múltiples perspectivas de investigación.
8.3 Perspectivas de investigación
El estudio del influjo del paradigma cibernético en la arquitectura abre un enorme abanico de
posibilidades que merecen ser examinadas, y que en mi trabajo apenas han sido mencionadas.
196
Por ejemplo, entre las ideas que he explorado, pero que por diferentes motivos no he podido
introducir en mi esquema, se cuentan cuestiones como la relación entre la cibernética, la
ciencia ficción y la arquitectura; el rol del algoritmo como forma simbólica en la arquitectura;
al igual que la influencia cibernética en la arquitectura no-computacional de figuras como
Cedric Price, Archigram y Nicolas Schöffer, entre otros. Identificadas estas diferentes
perspectivas de investigación, el modelo de análisis aquí planteado debería servir como punto
de partida para el estudio de problemas mejor acotados.
***
Mi implicación en este campo también ha incluido una exploración del empleo de las
herramientas de diseño paramétrico, en el marco de mi participación en la ENSAG
71
como
profesor asistente del máster “Architecture, Ambiances et Cultures Numeriques”, programa
académico adjunto del laboratorio Cresson.
72
En este contexto he venido trabajando en el desarrollo de una metodología de diseño
orientada a explorar el empleo de las herramientas de diseño paramétrico como soporte para
la agenda de investigación sobre el diseño y el análisis del espacio construido elaborada por el
laboratorio Cresson. Se trata de una investigación en curso que pretende, teniendo en cuenta
la cercanía entre las visiones cibernéticas de la arquitectura y la concepción de los espacios
habitables promovidos por el Cresson, explorar la relevancia de la implementación de una
lógica relacional en el diseño para apoyar una práctica ecológica de la arquitectura (ver
Anexo).
71
Ecole Nationale Supérieure d’Architecture de Grenoble.
72
Centre de recherche sur l'espace sonore et l'environnement urbain.
9. Anexo
197
9. Anexo
Propuesta para la instrumentalización paramétrica del análisis atmosférico del espacio
9.1 Resumen
Entre los aspectos fructíferos que se desprenden de las construcciones cibernéticas de la
arquitectura se encuentra un cambio de paradigma en la definición de los problemas de diseño, que
ha sido fundamental para el desarrollo de una concepción ecológica de los espacios construidos. Esta
visión ecológica de los problemas de la arquitectura, ineludible en el contexto actual, también se
encuentra en el centro de los problemas de investigación planteados por el laboratorio Cresson,
73
centro de investigación al que he estado vinculado en los últimos años como profesor asistente del
máster “Architecture, Ambiances et Cultures Numériques ”. Este programa académico explora el
empleo de las herramientas digitales de diseño y fabricación, en correspondencia con las
investigaciones sobre el espacio construido desarrolladas por el laboratorio.
En este contexto he trabajado en el desarrollo de una metodología de proyectación, orientada a
explorar el potencial de las herramientas de diseño paramétrico como soporte para la agenda de
investigación elaborada por el Cresson. El modelo propuesto, basado en una aproximación
diagramática al diseño, persigue dos objetivos. En primer lugar, el modelo pretende ser un aporte a
la discusión sobre cómo instrumentalizar el análisis atmosférico del espacio, promovido por el
Cresson, en el desarrollo del proyecto de arquitectura. En segundo lugar, el modelo se plantea como
una herramienta pedagógica que debería permitir a los estudiantes del máster explorar el potencial
de la concepción cibernética del diseño para el desarrollo de una arquitectura capaz de responder a
las condiciones de su contexto.
En las páginas siguientes, a partir de una breve descripción de la visión de los problemas de la
arquitectura vehiculada por el laboratorio Cresson y del concepto de diseño paramétrico, se señala el
potencial de la integración de las herramientas paramétricas para la exploración de la concepción
atmosférica del espacio. Posteriormente se presenta el modelo elaborado, un ejemplo de su
73
El laboratorio Cresson (Centre de Récherche sur l’Espace Sonore Urbain) es un centro de investigación asociado a la Ecole
Nationale Supérieure d’architecture de Grenoble, que ha explorado una concepción de los espacios arquitectónicos y
urbanos como fenómenos determinados por una multiplicidad de factores “ambientales” (aspectos materiales, sociales y
atmosféricos) que participan en su consolidación.
198
aplicación en un problema de diseño concreto, y algunas conclusiones sobre una primera tentativa
de su aplicación en el estudio de diseño.
9.2 La concepción atmosférica de la arquitectura
Desde hace más de dos décadas el laboratorio Cresson ha venido desarrollando una agenda de
investigación que indaga sobre los fenómenos sensibles de los espacios arquitectónicos y urbanos. La
noción fundamental alrededor de la cual se ha desarrollado esta agenda es la de atmósfera, o
ambiente (ambiance), concepto que ha sido empleado para definir los espacios habitables como el
resultado de los diversos factores que los definen. Entonces, aunque por ambiente se hace referencia
al espacio construido, se trata de una visión que tiene en cuenta, además de las características físicas
de la arquitectura y la ciudad, los diversos factores y relaciones que entran en juego en su definición:
aspectos materiales, sociales y sensibles. En este sentido las investigaciones desarrolladas por el
laboratorio se extienden a las “múltiples dimensiones de la percepción in situ y de las prácticas de los
espacios construidos, al tiempo que interrogan y experimentan la instrumentalización del ambiente
sensible en el proyecto arquitectónico y urbano.” (Laboratorio Cresson, 2012)
Esta visión de los problemas de la arquitectura mantiene un estrecho vínculo con los modelos
cibernéticos desarrollados en el campo del diseño computacional. De hecho los promotores de la
visión atmosférica promovida por el Cresson, se apoyaron en sus inicios en referencias al trabajo de
algunos de los arquitectos que imaginaron nuevas elaboraciones de la arquitectura en base al
modelo cibernético, entre ellos Pierre Schafer y Cedric Price.
Crucialmente, el laboratorio Cresson también ha promovido una aproximación al estudio de los
espacios arquitectónicos y urbanos que, al igual que los modelos cibernéticos, parte de considerarlos
como la materialización de una compleja red de factores interrelacionados. En correspondencia con
esta visión, el laboratorio ha explorado diferentes maneras de analizar las realidades construidas, y
los problemas de diseño, alrededor de tres temas: medio ambiente, proyecto y sociedad.
Alrededor del tema de medio ambiente las investigaciones se han centrado en aspectos relacionados
con los elementos y los materiales en la arquitectura, con el vínculo entre los recursos culturales y los
recursos físicos de un lugar, y con el desarrollo de estrategias sustentables de concepción. En torno
al tema de proyecto, se ha establecido una agenda basada en la concepción de los ambientes como
un campo de investigación y como un campo de intervención práctica. De este modo se ha
9. Anexo
199
desarrollado una “postura de implicación a partir de la cual los procesos de conocimiento y los
procesos de transformación de un ambiente aparecen estrechamente imbricados.” (Laboratorio
Cresson, 2012) Lo anterior ha incluido el desarrollo de herramientas metodológicas y de una postura
experimental que buscan dar un carácter operacional al concepto de ambiente, y aprender lecciones
de estas experiencias en términos del diseño del espacio. Finalmente, alrededor del tema de
sociedad, se ha promovido la idea que todo espacio, arquitectónico o urbano, se inscribe siempre
dentro de un contexto histórico y social. En este sentido las investigaciones del laboratorio han
apuntado a contribuir al desarrollo de una cultura sensible de los espacios habitables, al desarrollo
de una ecología sensible del cuerpo en acción, y a especificar el carácter irreductible de los
problemas de diseño (Laboratorio Cresson, 2012).
A pesar de la variedad de aspectos que estas tres temáticas envuelven, a estas subyace siempre la
misma consideración. Se trata de la idea que para comprender, o proyectar, adecuadamente una
realidad arquitectónica o urbana, es necesario conocer el impacto de una diversidad de factores que
participan en la consolidación de tales realidades. Por este motivo un factor crucial de las
investigaciones del laboratorio ha sido el desarrollo de una serie de herramientas de análisis de los
diferentes aspectos “ambientales” que definen un espacio. En principio estas herramientas de
análisis deberían influir en el desarrollo de estrategias y procesos de diseño, correspondientes con
la visión ecológica del espacio promovida por el laboratorio.
Uno de los objetivos del modelo propuesto es precisamente indagar sobre la manera de
instrumentalizar este tipo de análisis como herramienta de soporte en el diseño. Es en este sentido
que se considera que el diseño paramétrico puede ser un instrumento interesante para el desarrollo,
en base a las nociones y métodos elaborados por el laboratorio, del proyecto arquitectónico
9.3 El diseño paramétrico
El diseño, o modelado paramétrico, constituye actualmente una de las principales líneas de
investigación en el campo de la arquitectura computacional. El cambio fundamental que han
introducido las herramientas de diseño paramétrico, respecto a las herramientas clásicas de CAD, es
la posibilidad de producir un modelo tridimensional sumamente flexible, gracias a su definición como
un sistema variable de relaciones geométricas. Este ha sido el resultado del desarrollo de nuevos
sistemas de notación, conocidos como programación visual o algoritmos generativos, en los que la
descripción espacial del proyecto ha sido reemplazada por la manipulación de las variables y
200
marcadores semióticos que definen la forma diseñada. Así, un modelo paramétrico está constituido
por un algoritmo, que define las características geométricas del objeto diseñado, y por su
actualización en un modelo geométrico tridimensional.
En este sentido, estas herramientas introducen un cambio fundamental en la manera de diseñar la
forma arquitectónica. Se trata del cambio de la notación geométrica explícita por la definición de
relaciones geométricas instrumentales. De este modo en los modelos paramétricos se pasa del
diseño de la forma del edificio, a la implementación de principios descritos a través de un programa.
En un sistema de este tipo todos los objetos están vinculados a variables de control (parámetros) que
determinan sus características. En consecuencia, los elementos particulares del diseño pueden
concebirse como respuestas a variables específicas, expresiones matemáticas y códigos.
Los parámetros en un algoritmo pueden definir las características (forma, tamaño, orientación,
posición) de los elementos geométricos (líneas, puntos, polígonos, volúmenes, superficies), o
pueden ser variables que afectan las relaciones entre los elementos. Es decir, los parámetros,
además de controlar las propiedades geométricas de los objetos, pueden ser empleados para
determinar relaciones de dependencia entre estos. De esta manera, cuando un diseñador utiliza un
sistema paramétrico lo que crea es una colección de objetos (un edificio, por ejemplo) sometidos a
un sistema flexible de relaciones representadas por diagramas de programación visual. Como lo
señalan los desarrolladores de Generative Components, el potencial del diseño paramétrico es que
cuando las variables que determinan las relaciones entre la colección de objetos cambia, los
miembros individuales deben responder de manera única a los cambios en su contexto especifico
(Menges, 2008, pp. 42-53).
Teniendo en cuenta lo anterior, el modelado paramétrico puede describirse como un método de
diseño que permite desarrollar el proyecto de arquitectura en función de una serie de factores y
variables; esto permite analizar, mediante la manipulación de tales variables, múltiples soluciones
posibles para un escenario de diseño determinado. Como se verá a continuación, la posibilidad de
representar un problema de diseño como un sistema variable de relaciones constituye un aspecto de
las herramientas paramétricas que representa un enorme potencial para la exploración atmosférica
del espacio.
9.4 Integración del modelado paramétrico y la concepción atmosférica del espacio
Antes se mencionó que la concepción atmosférica de los problemas de la arquitectura plantea una
visión de los espacios habitables como el resultado de múltiples factores sociales, sensibles y
9. Anexo
201
materiales. De acuerdo con los objetivos del laboratorio Cresson, se trata de una aproximación al
estudio de los espacios arquitectónicos y urbanos, que debería influir en el desarrollo de estrategias
de diseño correspondientes. Esta cuestión ha sido ampliamente debatida en este contexto, pues una
pregunta que se plantea al respecto es como hacer operativo el análisis atmosférico a la hora de
producir la forma arquitectónica.
Respecto a esta cuestión, dos aspectos propios de las herramientas paramétricas presentan un
interesante potencial; se trata de la capacidad para introducir flujos de datos como variable de
control de la forma, y la posibilidad de establecer una dinámica relacional entre la geometría y los
diferentes parámetros analizados. De esta manera los elementos de un diseño pueden concebirse
como respuestas a variables específicas.
Gracias a estos dos aspectos, inherentes a la lógica de las herramientas paramétricas, es posible
plantear escenarios de diseño informados por el análisis de los diferentes factores “ambientales” que
participan en la consolidación de una realidad arquitectónica o urbana. La capacidad de emplear los
resultados del estudio de un fenómeno de “ambiente” como input para la producción de la forma
arquitectónica aparece como una posible respuesta a la pregunta sobre cómo hacer operativo el tipo
de análisis promovido por el Cresson.
Desde luego, lo anterior exige la cuantificación los resultados de un análisis, lo cual implica una
limitación, pues no todos los fenómenos de ambiente pueden medirse cuantitativamente. Aunque
algunos de los aspectos de los espacios construidos estudiados por el laboratorio pueden ser
representados mediante formalizaciones matemáticas y muchos de los llamados “fenómenos de
ambiente” son estudiados mediante técnicas que producen directamente datos numéricos (como es
el caso de los análisis lumínicos, acústicos, térmicos, etc.), uno de los énfasis de las investigaciones
del Cresson es el uso de modelos cualitativos de análisis.
Por lo tanto el modelo debe ser considerado como una herramienta que permite complementar la
aproximación cualitativa del laboratorio, mediante el desarrollo de estrategias que permiten analizar,
en un ambiente virtual de diseño, el impacto de una variedad de factores que influyen en la
consolidación de una realidad arquitectónica. En base a esta idea se ha planteado una metodología
de diseño que permite potenciar algunos aspectos del análisis atmosférico del espacio mediante el
empleo de las herramientas de diseño paramétrico.
202
9.5 El modelo
En el contexto de mi vínculo con el laboratorio y con la ENSAG, el interés del modelo propuesto es
doble. En primer lugar, el modelo pretende ser un aporte a la discusión sobre cómo hacer operativo
el análisis atmosférico en los procesos de diseño. En segundo lugar, el modelo ha sido pensado como
una herramienta que debería permitir a los estudiantes del máster “Architecture, Ambiances et
Cultures Numériques ” explorar escenarios de proyectación donde las herramientas de diseño
computacional sirven de soporte para una práctica ecológica de la arquitectura.
En relación con la visión promovida por el Cresson, el modelo propuesto parte de la consideración
que la adecuada resolución de un problema de diseño requiere la comprensión, y la correcta
integración, de los diversos factores “ambientales” que componen el contexto de un proyecto. Para
el desarrollo de esta aproximación al diseño, el modelo se inspira en un aspecto del programa
elaborado por Alexander en su Ensayo sobre la síntesis de la forma. Se trata del empleo del diagrama
como herramienta que permite hacer operativo el análisis de un problema de diseño en la
producción de la forma diseñada.
Según Alexander un diagrama es “toda pauta que, al ser abstraída de una situación real, comunica la
influencia física de determinadas exigencias o fuerzas.” (Alexander, 1986, p. 85) De acuerdo con la
propuesta de Alexander, el diagrama no es solamente un medio ideal para producir diseños que se
adaptan correctamente a un contexto, sino que el diagrama aparece como un instrumento que
permite aclarar precisamente cual es el contexto en el que se inscribe un problema de diseño. Desde
esta perspectiva el diagrama aparece como una herramienta analítica y como una herramienta de
síntesis del análisis.
En correspondencia con lo anterior, el modelo desarrollado propone una práctica diagramática del
proyecto, basada en la retroalimentación entre las fases de análisis y las fases de realización del
diseño (Fig.1). A través de esta mecánica se aspira a definir “la pauta general de la forma” en base a
la adecuación entre las condiciones analizadas y los requisitos del problema de diseño. Una
aproximación de este tipo debería ayudar a aportar respuestas adecuadas al problema de cómo
lograr un correcto balance entre el contexto, las necesidades de los usuarios y la configuración de los
espacios construidos.
74
74
En las páginas siguientes, en el cuadro lateral titulado “Ejemplo de aplicación del modelo”, se presenta junto a la
descripción del modelo un ejemplo de un ejercicio de diseño que ilustra de qué modo el método propuesto permite
instrumentalizar el análisis de un problema de diseño para responder a las necesidades identificadas en el desarrollo del
proyecto.
9. Anexo
203
Figura 1. El modelo propuesto plantea cinco puntos correspondientes a una fase analítica y una fase de realización que se
elaboran juntas y se retroalimentan, de este modo los factores analizados pueden informar el proceso de diseño desde los
primeros esbozos hasta la realización de un diseño definitivo.
La primera etapa del método propuesto
consiste en llevar a cabo el análisis de uno,
o varios, de los factores ambientales
(aspectos lumínicos, acústicos, térmicos,
de uso, de percepción, etcétera)
considerados determinantes para el
desarrollo de un problema de diseño
específico. A partir del análisis realizado se
propone el desarrollo de diagramas
analíticos; se trata de representaciones
visuales de los datos recolectados en el
análisis, de la expresión gráfica de un
conjunto de propiedades de un problema
particular. En este sentido, como lo
plantea Alexander, los diagramas
elaborados aparecen como una anotación
para un problema específico estudiado.
Ejemplo de aplicación del modelo
A manera de ejemplo aquí se presenta un ejercicio de diseño
que, en base los cinco puntos de la metodología planteada,
ilustra la propuesta de integración de las herramientas
paramétricas y la concepción atmosférica de los problemas de la
arquitectura (para su desarrollo he empleado material gráfico y
datos recolectados en colaboración con Ignacio Arciniegas, con
quien desarrollé, en el mismo contexto, un proyecto dentro del
marco del máster “Advanced Design and Digital Architecture”
en la Escuela Superior de Diseño e Ingeniería de Barcelona).
El contexto del ejercicio desarrollado es el patio central del
edificio de la Escuela Superior de Diseño e Ingeniería de
Barcelona, ubicada en el centro de Barcelona, junto a La rambla
y la plaza de Joaquim Xirau. (Figs.2-3)
Figura 2: Escuela Superior de Diseño e Ingeniería de Barcelona.
204
Posteriormente se propone un trabajo sobre la
forma arquitectónica, informado por los
resultados del análisis. En esta fase, de
realización, el diagrama es empleado como una
representación que expresa las consecuencias
físicas de la respuesta del diseño a los factores
analizados en la fase analítica.
Una vez resuelta esta primera aproximación
formal al problema de diseño, se pasa a la
evaluación de la adecuación entre las
descripciones formales propuestas y los
requisitos del proyecto. Para esto se confronta la
respuesta del objeto diseñado a las condiciones
analizadas. Si se considera que existe un correcto
ajuste entre los requisitos del proyecto y las
hipótesis formales, estas pueden dar paso, en
una última fase de realización, al desarrollo de
un diseño definitivo.
Resumiendo, el modelo comprende cinco puntos
que establecen un sistema de retroalimentación
entre las fases de análisis y las fases de
realización del proyecto: 1) Análisis de los
fenómenos ambientales considerados relevantes
para el problema de diseño. 2) Elaboración de
diagramas analíticos que corresponden a la
representación visual de un conjunto de
propiedades de los fenómenos estudiados. 3)
Producción de diagramas formales mediante los
cuales se especifica la pauta general de la forma
en función de los resultados del análisis. 4)
Análisis de la correcta adecuación entre las
condiciones analizadas y las hipótesis de diseño
elaboradas en el punto tres. 5) Diseño definitivo.
Figura 3: Vista axonométrica del lugar a intervenir.
El ejercicio consiste en proyectar una intervención
arquitectónica en el espacio mencionado, que cumpla
con el requisito de cubrir parcialmente el patio de la
escuela, que por su localización recibe mucha radiación
solar directa durante el verano y poca durante los demás
periodos del año.
PASO 1. El primer paso consiste en la identificación de
los factores “ambientales” considerados de mayor
relevancia para el problema en cuestión. Teniendo en
cuenta el requisito de cubrir parte del espacio, y la
vocación del lugar como sitio de encuentro y
esparcimiento, se propuso un análisis comparativo de los
patrones de ocupación del espacio respecto a su
asoleamiento.
El análisis de ocupación se llevó a cabo mediante la
observación in situ y el registro fotográfico de la
actividad del espacio durante varios días, y durante las
horas de asoleamiento (Fig.4). El análisis de
asoleamiento se realizó en Ecotect – para el periodo
comprendido entre el 21 de Marzo y el 21 de Junio– y se
empleó el plug-in Geco para introducir los resultados del
análisis solar en el algoritmo de Grasshopper.
Figura 4: Registro fotográfico de la actividad del lugar en
diferentes momentos del día.
PASO 2. Una vez recolectada la información necesaria,
se dio paso al desarrollo de diagramas analíticos. Con
este fin se mapeó la información recolectada en una
matriz bidimensional que representa el espacio
analizado. En cuanto al análisis solar, al valor global de
asoleamiento de cada célula de la matriz se asignó un
código de color obtenido del análisis de Ecotect (Fig.5).
9. Anexo
205
La pregunta que surge en este punto es en qué
sentido las herramientas de diseño paramétrico
pueden jugar un papel relevante para este tipo
de aproximación al diseño. Como se señaló
antes, dos aspectos de las herramientas
paramétricas (la posibilidad de introducir datos
en el espacio de diseño y la lógica relacional
entre los elementos de un diseño que estas
permiten implementar), resultan de interés
tanto para la representación del análisis
atmosférico, como para su empleo en la síntesis
de la forma que debe desprenderse del análisis.
Es en este sentido que se considera que las
herramientas de diseño paramétrico pueden ser
un interesante aporte para la
instrumentalización del análisis atmosférico de
los problemas de diseño.
Como herramienta de análisis, gracias a su
capacidad para manipular flujos de información,
las herramientas paramétricas pueden ser
empleadas como medio de representación de los
datos analizados. La visualización de la
información recolectada a través del análisis de
un fenómeno de ambiente puede ser una
potente herramienta para comprender las
condiciones que determinan un problema de
diseño.
Por otra parte, en términos de la producción de
la forma, la lógica relacional propia de las
herramientas paramétricas, que permite
concebir los elementos de un diseño como
respuesta a variables específicas, constituye un
medio eficaz para explorar la adecuación entre la
Figura 5: Mapeo de los datos globales de asoleamiento
directo del espacio, durante los periodos analizados.
En el caso del análisis de ocupación, se creó una
colección de imágenes, cada una de las cuales representa
la ocupación del lugar en un momento determinado. De
este modo se asignó un valor global de ocupación a cada
punto en el espacio, con el fin de determinar cuáles son
las zonas de mayor actividad. (Fig.6). Para esto último se
empleó la herramienta de muestreo de imágenes de
Grasshopper que permite gráficamente el valor global de
ocupación de cada punto en el espacio (Fig.7) Una vez
diagramados los datos del análisis de ocupación se
compararon los resultados con los mapas de
asoleamiento obtenidos del análisis en Ecotect. (Fig 8).
Figura 6: Mediante el mapeo de los datos recolectados
en una representación bidimensional del espacio, es
posible identificar las zonas de mayor ocupación durante
el periodo analizado. Para esto, por cada periodo de
tiempo registrado, a cada célula en la matriz se le
atribuye un valor igual a 1 cuando la célula está
ocupada, o igual a 0, cuando la célula está desocupada.
Posterirmente se suman todos los valores obtenidos para
determinar el índice total de ocupación de cada célula.
PASO 3. La comparación del diagrama de ocupación con
el análisis de asoleamiento permite confirmar que,
durante el periodo estudiado, las zonas de mayor
ocupación coinciden con las zonas que reciben mayor
radiación solar directa. A partir de esta observación, y
empleando los datos del análisis, se generó un diagrama
que representa las zonas del patio que deberían
permanecer descubiertas para recibir un máximo de
radiación solar durante los periodos no estivales (Fig.9).
206
forma concebida y las conclusiones que se
desprenden del análisis.
Además, la posibilidad de manejar parámetros
variables permite analizar diferentes escenarios
de diseño, de modo que diversas soluciones al
mismo problema pueden ser estudiadas. Esta
flexibilidad también permite establecer una
lógica de retroalimentación entre el diseño y el
análisis; de este modo la adecuación de la
respuesta a un problema dado puede ser
examinada, y los resultados del análisis pueden
ser reintroducidos en el proceso para afinar el
diseño.
Este diagrama sintético se desarrolló como un
instrumento que permite generar una forma posible en
función de la adecuación entre los requisitos del proyecto
y los resultados del análisis.
Figuras 7. Representación de los datos del análisis de
ocupación resultante del proceso descrito en la figura 5.
La ocupación de cada punto en el espacio es
representado por un círculo cuyo tamaño y color varía en
función del valor resultante del análisis.
Figuras 8. Superposición de la representación de los
mayores valores de ocupación del espacio, sobre la
representación gráfica de los valores de asoleamiento
global.
Figura 9. Diagrama sintético que representa
losresultados del análisis en función de los requisitos del
proyecto.
9. Anexo
207
PASO 4. En correspondencia con el modelo propuesto, una vez esbozada la forma arquitectónica, se introdujo un nuevo
ciclo de retroalimentación entre la fase análitica y la fase de síntesis. En este caso se trata del análisis de la mejor
adecuación entre la forma diseñada y la necesidad de generar la mayor área descubierta en las zonas que reciben
radiación solar directa durante el periodo comprendido entre el 21 de septiembre y el 21 de junio. Con este fin se analizó
el asoleamiento directo para este periodo del espacio diseñado, en base a una serie de variaciones paramétricas de la
forma, hasta encontrar un compromiso ideal entre área cubierta y área descubierta (Fig.11). Una vez definida la
correcta adecuación entre estos dos parámetros se pasó al desarrollo de un diseño definitivo.
Figura 10. Actualización en un elemento arquitectónico del diagrama sintético.
Figura 11. Análisis de diferentes posibles configuraciones del espacio en función del análisis de asoleamiento.
208
PASO 5. Definida la forma de la cubierta, el diseño del espacio se completó mediante el desarrollo de una escalinata
que funciona a la vez como elemento de control solar, como límite permeable entre la zona cubierta y la zona
descubierta del patio, y como gradería que sirve simultáneamente como mobiliario y como elemento de acceso a la
parte superior de la cubierta. Para el diseño de la cubierta se planteó crear una serie de aberturas que permiten un
paso controlado de la luz solar (Fig.11).
Estos elementos también se definieron paramétricamente, de modo que en la fase de diseño definitivo también fue
posible analizar diferentes configuraciones espaciales, en base a las variables introducidas en el algoritmo
generativo. Por ejemplo, la forma de la escalinata depende de las variables que definen el diagrama sintético
desarrollado en el paso 3, de modo que cualquier variación introducida en este punto repercute en el resultado final.
Del mismo modo, las aberturas de la cubierta fueron definidas en función de los datos obtenidos del análisis solar
llevado a cabo en el paso 4, de manera que el diámetro de los orificios varía en función de la cantidad de luz solar
directa que recibe la cubierta en cada punto del espacio analizado (a los valores altos de asoleamiento se asignan
diámetros pequeños y vicevesa).
Figura 12. Las imágenes corresponden a uno de los múltiples posibles resultados del proceso.
.
9. Anexo
209
9.6 El modelo aplicado
El ejemplo presentado arriba ilustra cómo la definición de un escenario de diseño en base al análisis
de sus aspectos atmosféricos (en este caso la incidencia solar y el comportamiento de los usuarios)
puede instrumentalizarse para servir como herramienta de apoyo para la proyectación de la
arquitectura. En este sentido la capacidad de las herramientas paramétricas de emplear flujos de
datos como input para el diseño, al igual que la posibilidad de dirigir el proceso de diseño mediante
una definición algorítmica, aparecen como dos potentes instrumentos para complementar la
aproximación atmosférica promovida por el laboratorio Cresson.
El ejercicio presentado es un ejemplo de cómo el modelo elaborado permite emplear los resultados
del análisis atmosférico como elemento operativo en el diseño, de cómo se puede establecer una
relación causal entre el análisis de un problema de diseño y el desarrollo del proyecto (Fig.13). Esta
dinámica permite concebir el proceso de proyectación como un sistema de retroalimentación entre
las fases analíticas y las fases sintéticas del proceso. De esta manera es posible evaluar
permanentemente los resultados obtenidos en cada etapa en función de los parámetros analizados,
y emplear los resultados del análisis como medida para valorar la adecuación entre los requisitos del
proyecto y las soluciones planteadas desde los primeros esbozos hasta el desarrollo de un diseño
definitivo.
Figura 13. La imagen muestra cómo todas las etapas del diseño, incluyendo el desarrollo de los diagramas analíticos y
sintéticos, han sido desarrolladas dentro de un único algoritmo en Grasshopper. Este flujo de trabajo permite analizar
diversas soluciones al problema de diseño en cualquier etapa del proceso, introducir nuevos datos y variables, y emplear los
resultados de cada etapa como parámetro para definir las etapas siguientes.
210
9.7 El modelo en el estudio de diseño
Durante el primer semestre del periodo académico 2013-2014, el modelo descrito arriba se propuso
como base para el desarrollo de un ejercicio de diseño con un grupo de estudiantes de primer año
(M1) del máster “Architecture, Ambiances et Cultures Numériques ” (AACN). Para esto se planteó a
los estudiantes el desarrollo de un proyecto en el que, empleando diferentes herramientas de
análisis y de diseño paramétrico, se debían identificar y analizar los aspectos atmosféricos relevantes
de un sitio, representar gráficamente los resultados del análisis, y solucionar un proyecto a partir del
desarrollo de diagramas analíticos y sintéticos del escenario de diseño planteado.
Desafortunadamente este ejercicio no se pudo completar, fundamentalmente porque el proceso
académico planteado por el máster apunta a producir, en un periodo de tiempo muy corto,
proyectos formalmente complejos y prototipos de los mismos fabricados con herramientas de
control numérico. Este objetivo obliga a privilegiar un proceso pedagógico en el que se les proponen
a los estudiantes “recetas”, tipologías basadas en el uso de algoritmos pre-diseñados, que garantizan
alcanzar los resultados formales esperados, por encima del aprendizaje profundo de las técnicas
empleadas. Esta dinámica resultó ser incongruente con el modelo propuesto, que exige, además de
un tiempo de formación adecuado para alcanzar un conocimiento suficiente de las herramientas
empleadas, concebir el diseño como un proceso de análisis que también requiere tiempos más
largos.
Las razones del fracaso de esta primera tentativa de poner a prueba el modelo en el estudio de
diseño evidencian algunos aspectos de la organización del máster que vale la pena discutir, pues
ponen de relieve algunas cuestiones discutidas en la disertación.
La primera es que la dinámica promovida por el máster recuerda una tendencia, identificada en
diversas prácticas de diseño digital (reseñada en el capítulo 7), hacia la autonomización de los
recursos empleados (en este caso técnicos) de los demás aspectos que intervienen en la producción
de la arquitectura.
Lo anterior se refleja en una clara desconexión entre la práctica del proyecto y los problemas
concretos de la arquitectura, que es producto de la misma actitud determinista, criticada a lo largo
la disertación. La exploración en el máster de las técnicas de diseño y de fabricación digital como el
factor primordial de los procesos dirigidos digitalmente conduce a la definición de escenarios de
diseño donde tanto los proyectos desarrollados, como los medios tecnológicos empleados,
9. Anexo
211
mantienen un vínculo bastante impreciso con la cuestión de diseñar espacios significativos capaces
de responder a necesidades concretas.
Otro aspecto que reveló el desarrollo del ejercicio fue la gran dificultad que encontraron los
estudiantes para formular un problema de diseño en base a una lógica computacional. Este es
igualmente el resultado de un proyecto académico que privilegia los resultados sobre los procesos
de aprendizaje. Además de poner de relieve la débil formación técnica propuesta a los estudiantes,
esta dinámica basada en el uso de recetas evidencia un claro desinterés por el fomento de una
actitud reflexiva respecto a los modos computacionales de producción de la arquitectura.
Estas dos falencias, observadas en diferentes espacios de formación,
75
evidencian la necesidad,
señalada en la disertación, de promover, especialmente en los ámbitos académicos, una cultura
crítica de la producción computacional de la arquitectura. Y como se ha insistido aquí, esto exige no
sólo un conocimiento profundo de los aspectos técnicos propios de la pragmática computacional del
diseño, sino también de la comprensión del desarrollo y evolución de las ideas, de las condiciones
intelectuales, que han guiado el desarrollo de esta perspectiva en la profesión.
9.8 Conclusiones preliminares sobre el potencial del modelo para la pedagogía de
los ambientes
A pesar de las dificultades encontradas, el intercambio posterior con los estudiantes permite pensar
que, en condiciones apropiadas, el modelo propuesto puede ser una herramienta de interés para
compaginar la pedagogía de los “ambientes” y la producción digital de la arquitectura. Con el fin de
evaluar lo anterior, se les pidió a los estudiantes que respondieran a un cuestionario en el que se les
invitó a comentar las dificultades encontradas durante el desarrollo del ejercicio, al igual que su
opinión respecto a la utilidad del modelo propuesto en lo referente al aprendizaje de las
herramientas de diseño y análisis empleadas .
76
75
Una dinámica similar pude observarla en la organización del máster “Advanced Design and Digital Architecture”, en el
que participé como estudiante en 2013.
76
Después de que el ejercicio se abortó se les pidió a los estudiantes que respondieran a las siguientes preguntas :
1. Quelles difficultés avez vous trouvé pendant la réalisation de l’exercice?
Quant à la méthodologie proposée :
2. Pensez vous qu’elle est un bon moyen pour l’apprentissage des outils de dessin paramétrique ?
3. En quoi pensez vous que la méthodologie proposée permet de mieux comprendre le potentiel du dessin
paramétrique ?
4. Pensez vous que cette méthodologie est un outil efficace pour instrumentaliser l’analyse des ambiances ?
212
Respecto a las dificultades encontradas, la mayoría de los estudiantes respondieron que el
conocimiento insuficiente de las herramientas, o el escaso tiempo para familiarizarse con ellas, fue el
principal problema que enfrentaron. Algunos de los estudiantes asociaron lo anterior, de manera
más concreta, con la dificultad para representar gráficamente los resultados de los análisis
desarrollados para poder emplearlos posteriormente como elementos de proyectación.
Sin embargo, a pesar de los problemas señalados, todos los estudiantes entrevistados coincidieron
en reconocer en el modelo propuesto un instrumento útil para el aprendizaje de las herramientas de
diseño paramétrico y un ejemplo de su potencial para la concepción atmosférica del espacio.
Respecto a lo primero los estudiantes afirmaron globalmente que el desarrollo del ejercicio les
resultó de utilidad, en la medida que su desarrollo puso en evidencia el tipo de variables que pueden
ser analizadas y empleadas en un sistema paramétrico. En sus respuestas lo anterior aparece unido a
la identificación del potencial del diseño paramétrico como un medio para introducir en el desarrollo
del proyecto diferentes aspectos “encontrados en el sitio” relacionados con la iluminación, el
ambiente sonoro, la circulación, etcétera.
Al respecto, una de las estudiantes expresó que el empleo de las herramientas paramétricas “facilitó
la conversión de los datos recolectados en el sitio en datos numéricos y así poder observar las
variaciones (de los fenómenos analizados) en el tiempo y en el espacio.” En el mismo sentido, otro
estudiante señaló que mediante el desarrollo del ejercicio pudo concebir la relación entre los
aspectos particulares del análisis y su impacto en la configuración general del proyecto, lo anterior
gracias a la posibilidad de “ver las repercusiones de lo particular sobre lo general al cambiar uno o
varios parámetros.”
Al comentar el potencial de las herramientas paramétricas para la instrumentalización del análisis
atmosférico, los estudiantes también coincidieron al manifestar que el modelo presentado les
permitió establecer un vínculo claro entre los fenómenos “ambientales” analizados, los datos
recolectados y la producción del objeto arquitectónico.
***
El intercambio con los estudiantes permite concluir que, aunque la primera tentativa de su
implementación en el estudio de diseño evidenció serias dificultades relacionadas con la
organización del máster, la propuesta para la instrumentalización paramétrica del análisis
atmosférico del espacio, ejemplificada en el modelo presentado arriba, constituye una herramienta
9. Anexo
213
interesante para explorar la integración en la pedagogía de los ambientes arquitectónicos y urbanos
de las herramientas de diseño computacional.
Dentro del marco de la indagación propuesto por el máster “Architecture, Ambiances et Cultures
Numériques ”, que aspira a explorar la concepción atmosférica de la arquitectura apoyada en el
empleo de nuevas herramientas de diseño y fabricación digital, esta propuesta constituye una
contribución a la consolidación de una nueva línea de investigación en el laboratorio Cresson. Se
trata de una exploración que invita a reflexionar sobre el potencial de los medios digitales de
producción de la arquitectura, en un contexto en el que, al igual que en las exploraciones
cibernéticas del diseño, se ha pensado la arquitectura como ecología, como una dinámica de
interacción entre múltiples fuerzas y factores de la cual surge una realidad socio-espacial compleja.
214
10. Bibliografía
215
10. Bibliografía
Alexander, C., 1986. Ensayo sobre la Síntesis de la Forma. Buenos Aires: Ediciones Infinito.
Alhadeff-Jones, M., 2008. Three Generations of Complexity Theories: Nuances and Ambiguities. Educational
Philosophy and Theory, 40(1), pp. 66-82.
Aranda, B. & Lasch, C., 2006. Pamphlet Architecture 27: Tooling. New York: Princeton Architectural Press.
Ashby, W. R., 1962. Principles of the Self-organizing System. En Principles of the self-organizing system:
Transactions os the University of Illinois Symposium. London, Pergamon Press, pp. 102-126.
Augenbroe, G., 2005. A Framework for Rational Building Performance Dialogues. En: B. Kolarevic & A. M.
Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 97-110.
Back, T., Hammel, U. & Schwefel, H.-P., 1997. Evolutionary Computation: Comments on the History and Current
State. IEEE Transactions On Evolutionary Computation, 1(1).
Ball, P., 2012. Pattern Formation in Nature: Physical Constraints and Self-Organising Characteristics.
Architectural Design, 82(2), pp. 22-27.
Balmond, C., 2007. Element. Munich, Berlin, London, New York: Prestel.
Barthes, R. & Duist, L., 1975. "An Introduction to the Structural Analysis of Narrative". New Literay History, 6(2),
pp. 237-272.
Barthes, R. & Duist, L., 1975. An Introcuction to the Structural Analysis of Narrative. New Literary History, 6(2),
pp. 237-272.
Bateson, G., 1990. Vers une écologie de l’esprit 1. Paris: Editions du Seuil.
Baudrillard, J., 2003. Requiem for the Media. En: N. Wardrip-Fruin & N. Montfort, edits. The New Media
Reader. Cambridge - Londres: The MIT Press, pp. 278-288.
Bentley, P., 1999. An Introduction to Evolutionary Design by Computers. En: P. Bentley, ed. Evolutionary Design
by Computers. San Francisco: Morgan Kaufmann, pp. 1-73.
Bertalanffy, L. v., 1993. Théorie générale des systèmes. Paris: Dunod.
Berto, F. & Tagliabue, J., 2012. The Stanford Encyclopedia of Philosophie. [En línea]
Available at: http://plato.stanford.edu/archives/sum2012/entries/cellular-automata/
[Último acceso: 1 Junio 2013].
Blassel, J. F., 2005. Engineering a Performative environment . . En: B. Kolarevic & A. M. Malkawi, edits.
Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 123-134.
Bowker, G., 1993. How to Be Universal: Some Cybernetic Strategies, 1943-70. Social Studies of Science , 23(1).
Braham, W., 2013. williambraham.net. [En línea]
Available at: http://williambraham.net
[Último acceso: 1 Enero 2013].
Braham, W. W., 2005. Biothechniques: Remarks on the Intensity of Conditioning. En: B. Kolarevic & A. M.
Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 55-70.
Breton, P., 1990. Une Histoire de l'informatique. Paris: La decouverte.
Breton, P., 1995. L’utopie de la communication : le mythe du village planetaire. Paris: La decouverte.
216
Burke, A. & Tierney, T., 2007. Network Practices. New Strategies in Architecture and Design. New York:
Princeton Architectural Press.
Burry, M. & Burry, J., 2010. The New mathematics of architecture.. Londres: Thames & Hudson.
Cardoso, D., 2012. Builders of the Vision. Tesis doctoral. Cambridge, Mass: Massachusetts Institute of
Technology.
Chu, K., 2006. Metaphysics of genetic architecture and computation. Architectural Design, 76(4), pp. 38-45.
Chu, K., 2006. Metaphysics of genetic architecture and computation (pages 38–45). Architectural Design, 76(4),
pp. 38-45.
Coates, P., Healy, N., Lamb, C. & Voon, W., 1996. The use of cellular automata to explore bottom up
architectonic rules. Proceedings of the "Eurographics UK Chapter 14ht annual conference". Londres,
Eurographics Association UK.
Coyne, R., 2001. Technoromanticism: Digital Narrative, Holism, and the Romance of the Real. Cambridge, Mass:
The MIT Press.
De Landa, M., 2000. A thousand Years of Nonlinear History. New York: Swerve Editions.
De Landa, M., 2004. Material Complexity. En: N. Leach, D. Turnbull & C. Williams, edits. Digital Tectonics.
Chichester: John Wiley & Sons, pp. 14-21.
De Landa, M., 2011. A Thousand Years of Nonlinear History. New York: Zone Books.
Derix, C., 2008. Genetically Modified Spaces. En: Space Craft: Developments in Architectural Computing.
London: RIBA Publishing, pp. 44-53.
Diller, E. & Scoffidio, R., 1997. Corps, l’espace prescrit. Techniques et Architecture, Volumen 429.
Dosse, F., 1995. Histoire du structuralisme. Paris: La Découverte.
Edwads, P. N., 1997. The closed world: Computers and the politics of discourse in Cold War America. s.l.:MIT
Press.
Estévez, A. T. (., 2005. Arquitecturas genéticas II: medios digitales y formas orgánicas.. Barcelona: ESARQ (UIC) /
SITES Books.
Estévez, A. T. (., 2009. Arquitecturas genéticas III: nuevas técnicas biológicas y digitales. Barcelona: ESARQ (UIC)
/ SITES Books.
Eveno, E., 1998. Utopies Urbaines. Toulouse: Presses universitaires du miral.
Flores, L., 2011. La autopoiesis de la arquitectura. Patrik Schumacher en conversación con Loreto Flores.
Revista de arquitectura, Issue 23.
Franzosi, R., 1998. Narrative Analysis – Or Why (And How) Sociologists Should be Interested in Narrative.
Annual Review of Sociology, Volumen 24, pp. 517-554.
Frazer, J., 1995. An Evolutionary Architecture. London: Architectural Association.
Gallison, P., 1994. The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision. Critical Inquiry, 21(1),
pp. 228-266.
Gallison, P., 2003. War Against the Center. En: A. Picon & A. Ponte, edits. Architecture and the sciences:
Exchanging Metaphors. Princeton, New Jersey: Princeton Architectural Press, pp. 196-227.
Gao, Y., 2012. Architectural homeostasis through reciprocal dualism. En: Hour 25 HKU Architecture Papers
2011. Hong Kong: HKU Press.
10. Bibliografía
217
Garcia, M., 2010. The Diagrams of Architecture. Chichester: John Wiley & Sons.
Genosko, G., 1999. Mcluhan and Baudrillard. The Masters of Implosion. New York: Routledge.
Geoghegan, B. D., 2008. The Historiographic Conceptualization of Information: A Critical Survey. IEEE Annals of
the History of Computing, pp. 66-81.
Grobman, Y. J., 2012. The various dimensions of the concept of performance in architecture . En: E. Neuman &
Y. J. Grobman, edits. Performalism. Form and Performance in Digital Architecture. London - New York:
Routledge, pp. 9-13.
Habermas, J., 2010. Ciencia y técnica como ideología. Madrid: Tecnos.
Hall, S., 1986. Cultural studies: Two Paradigms. En: R. ,. P. R. Collins, y otros edits. Media Culture and Society. A
Critical Reader. Londres: Sage Publications, pp. 33-48.
Haraway, D., 2003. A Cyborg Manifesto. Science, Technology, and Socialist Feminism in the Late Twentieth
Century. En: N. Wardrip-Fruin & N. Montfort, edits. The New Media Reader. Cambridge - Londres: The MIT
Press, pp. 515-541.
Hayles, N. K., 1999. How we became Posthuman: Virtual Bodies in Cybernetics, Literature and Informatics.
Chicago: The University of Chicago Press.
Heims, S. J., 1986. John Von Neumann y Norbert Wiener. Barcelona: Salvat Editores.
Hensel, M., 2012. Performance-oriented design from a material perspective: domains of agency and the spatial
and material organization complex. En: Y. J. Grobman & E. Neuman, edits. Performalism: Form and
Performance in Digital Architecture. New York: Routledge, pp. 43-48.
Hensel, M. & Menges, 2008a. Versatility and Vicissitude . An introduction to Performance in Morpho-Ecological
Design. Architectural Design, 78(2), pp. 6-11.
Hensel, M. & Menges, A., 2006. Differentiation and Performance: Multi Performance Architectures and
Modulated Environments. Architectural Design, 76(2), pp. 60-69.
Hensel, M. & Menges, A., 2006. Differentiation and performance: multi-performance architectures and
modulated environments. Architectural Design, 76(2), pp. 60-69.
Hensel, M. & Menges, A., 2006. Material and digital design synthesis (pages 88–95). Architectural Design, 76(2),
pp. 88-95.
Hensel, M. & Menges, A., 2008. Designing Morpho-Ecologies: Versatility and Vicissitude of Heterogeneous
Space. Architectural Design, 78 (2), pp. 102-11.
Hensel, M. & Menges, A., 2008. Versatility and Vicissitude: An Introduction to Performance in Morpho-
Ecological Design (pages 6–11). Architectural Design, 78(2), pp. 6-11.
Hensel, M., Menges, A. & Weinstock, M., 2006. Towards self-organisational and multiple-performance capacity
in architecture. Architectural Design, 76(2), pp. 5-11.
Herzog, T., 2005. Performance Form. En: B. Kolarevic & A. M. Malkawi, edits. Performative Architecture. Beyond
Instrumentality. New York: Spon Press, pp. 71-85.
Heylighen, F., 1988. Building a Science of Complexity. Artículo presentado en la 1988 Annual Conference of the
Cybernetics Society. Londres, Cybernetics Society, King's College.
Hight, C., 2008. Architectural Principles in the Age of Cybernetics.. New York: Routledge .
Hight, C., 2012. High performance anxiety. En: E. Neuman & Y. J. Grobman, edits. Performalism. Form and
Performance in Digital Architecture. London - New York: Routledge, pp. 37-42.
218
Hogeweg, P., 2011. The Roots of Bioinformatics in Theoretical Biology. PLoS Computational Biology, 7(3), pp. 1-
5.
Holland, J., 1992. Adaptation in natural and artificial systems : an introductory analysis with applications to
biology, control, and artificial intelligence. Cambridge: The MIT Press.
Holland, J., 2004. El Orden oculto : de cómo la adaptación crea la complejidad. México: Fondo de Cultura
Económica.
Horn, B., 2008. Meaningless Form / Formless Meaning: Architecture, Languaje and the Computational Turn. pp.
515-519.
Johnson, S., 2001. Emergence. The Connected Lives of Ants, Brains, Cities and Software. New York: Scribner.
Kalay, Y. E., 1999. Performance-based design. Automation in Construction, Volumen 8, pp. 395-409.
Kay, L. E., 2000. Who Wrote the Book of Life? A History of the Genetic Code. Stanford, California: Stanford
University Press.
Keller, E. F., 1992. Secrets of life, secrets of death: Essays on language, gender, and science. s.l.:Psychology
Press.
Keller, S., 2005. Systems Aesthetics: Architectural Theory at the University of Cambridge, 1960-1975. Tesis
doctoral. Cambridge, Mass: Harvard University.
Keller, S., 2006. Fenland Tech: Architectural Science in Postwar Cambridge. Grey Room, Issue 23, pp. 40-65.
Kelly, K., 1994. Out of Control: The New Biology of Machines, Social Systems and the Economic World.
s.l.:Addison-Wesley.
Kloft, H., 2005. Non-standard Structural Design for Non-satandard Architecture. En: B. Kolarevic & A. M.
Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York.: Spon Press.
Kolarevic, B., 2003. Architecture in the Digital Age. Design and manufacturing. New York - Londres: Spon Press.
Kolarevic, B., 2005a. Towards the Performative in Architecture. En: B. Kolarevic & A. M. Malkawi, edits.
Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 203-214.
Kolarevic, B., 2012. Architecture of Change: Building Dynamics and Kinetic Matter. Grenoble, Les Grands
Ateliers.
Kolarevic, B. A. M. M. (., 2005. Computing the Performative in Architecture. En: B. Kolarevic & A. M. Malkawi,
edits. Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 193-202.
Kwinter, S., 2001. Architectures of Time: Towards a Theory of the Event in Modernist Culture. Cambridge, MA:
MIT Press.
Laboratorio Cresson, 2012. Laboratorio Cresson. [En línea]
Available at: http://www.cresson.archi.fr
[Último acceso: 01 06 2012].
Lafontaine, C., 2004. L’empire cybernétique. Des machines à penser à la pensée machine. Paris: Editions du
Seuil.
Lalvani, H., 2005. Genomic Architecture. Journal of Architecture and Computation.
Laszlo, E., 1981. Le systémisme. Vision nouvelle du monde. Paris ed. s.l.:Pergamon Press.
Latour, B., 1992. Aramis ou l'amour des techniques. Paris: La Decouverte.
Latour, B., 1992. Nous n'avons jamais été modernes : Essai d'anthropologie symétrique. Paris: La decouverte.
10. Bibliografía
219
Lavin, S., 2012. Performing the contemporary or: towards and even newer architecture. En: E. Neuman & Y. J.
Grobman, edits. Performalism. Form and Performance in Digital Architecture. London - New York: Rotledge, pp.
21-26.
Le Moigne, J. L., 1996. Complexité. En: Dictionaire d'Histoire et Philosophie des Sciences. Paris: Presses
Universitaires de France, pp. 205-215.
Leach, N. (., 2002. Designing for a Digital World. Chichester : Wiley-Academy.
Leach, N. ”. e. .. V. X. T. M. E. –. 2., 2009. Digital Morphogenesis. Architectural Design, 79(1).
Leach, N., 2001. La An-estética de la arquitectura. Barcelona: Gustavo Gili.
Leach, N., 2004. Swarm Tectonics. En: N. Leach, D. Turnbull & C. Williams, edits. Digital Tectonics. Chichester:
John Wiley & Sons, pp. 71-77.
Leatherbarrow, D., 2005. Architecture’s Unscripted Performance. En: B. Kolarevic & A. M. Malkawi, edits.
Performative Architecture. Beyond Instrumentality. New York: Spoon Press, pp. 5-20.
Lenoir, T. & Alt, C., 2003. Flow, Process, Fold. En: A. Picon & A. Ponte, edits. Architecture and the Sciences.
Exchanging Metaphors. Princeton, New Jersey: Princeton Architectural Press, pp. 314-353.
Lindenmayer, A., 1975. Developmental Algorithms for Multicellular Organisms: A Survey of L-Systems. Journal
of Theoretical Biology, Volumen 54, pp. 3-22.
Littlefield, D., 2008. Space Craft: Developments in Architectural Computing. Londres: RIBA Publishing.
Lobell, J., 2006. The Milgo experiment: an interview with Haresh Lalvani. Architectural Design, 76(4), pp. 52-61.
Lobell, J., 2006. The Milgo experiment: an interview with Haresh Lalvani. Architectural Design, 76(4), p. 52–61.
Lobell, J., 2006. The Milgo experiment: an Interview with Haresh Lalvani. Architectural Design, 76(4), pp. 52-61.
Lynn, G., 1999. Animate Form. New York: Princeton architectural press.
Lyotard, J. F., 2005. La condició Postmoderna. Barcelona: Angle Editorial.
Maciel, A., 2008. Artificial Intellignce and the Conceptualisation of Architecture. En: Space Craft: Developments
in Architectural Computing. London: RIBA Publishing, pp. 60-67.
Malkawi, A. M., 2005. Performance Simulation: Research and Tools. En: B. Kolarevic & A. M. Malkawi, edits.
Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 85-96.
Manovich, L., 2001. The language of New Media. Cambridge, Mass: The MIT Press.
Mattelart, A., 2001. Histoire de la societé de l’information.. Paris: La Decouverte.
McCleary, P., 2005. Performance (And Performers): In Search of Direction (and a Director). En: B. Kolarevic & A.
M. Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York: Spoon Press, pp. 215-224.
Mcluhan, M., 2001. The Medium is the Massage. An Inventory of Effects. Berkley, CA: Gingko Press.
Mcluhan, M., 2003a. The Galaxy Reconfigured or the Plight of Mass Man in an Individualist Society. En: N.
Wardrip-Fruin & N. Montfort, edits. The New Media Reader. Cambridge, Mass - Londres: The MIT Press, pp.
194-202.
Mcluhan, M., 2003. The medium is the message. En: N. Wardrip-Fruin & N. Montfort, edits. The New Media
Reader. Cambridge - Londres: The MIT Press, pp. 203-208.
Menges, A., 2008. Instrumental geometry. Architectural Design, 78(2), pp. 42-53.
220
Menges, A., 2012. Material Computation: Higher Integration in Morphogenetic Design. Architectural Design,
82(2), pp. 14-21.
Mitchell, M., 1996. An Introduction to Genetic Algorithms. Cambridge, Mass: The MIT Press.
Mitchell, W. & McCullough, M., 1995. Digital Design Media.. New York: Van Nostrand Reinhold.
Moe, K. & Smith, R. E., 2012. Building Systems. Design, Technology and Society. Londres - New York: Routledge.
Morange, M., 1994. Histoire de la biologie moleculaire. Paris: La Découverte.
Morin, E., 2005. Introduction à la pensée complexe. Paris: Editions du Seuil.
Murphie, A. & Potts, J., 2003. Culture and Technology. New York: Palgrav.
Murray, J. H., 2003. Inventing the Medium. En: N. Wardrip-Fruin & N. Montfort, edits. The New Media Reader.
Cambridge – Londres : The MIT Press, pp. 3-11.
Neuman, E., 2012. The collapsing of technological performance and the subject’s performance. En: E. Neuman
& Y. J. Grobman, edits. Performalism. Form and Performance in Digital Architecture. London - New York:
Routledge, pp. 33-36.
Neuman, E. & Grobman, Y. J., 2012. Performalism: A manifesto for architectural performance. En: E. Neuman &
Y. J. Grobman, edits. Performalism. Form and Performance in Digital Architecture. London - New York:
Routledge, pp. 3-7.
O'Reilly, U. M., Ross, I. & Testa, P., 2000. Emergent design: Artificial life for architecture design. Artificial Life
VII, . En: Artificial Life VII. s.l.:The MIT Press, pp. 454-463.
Ottchen, C., 2009. The Future of Information Modeling and the End of Theory. Architectural Design, 79(2).
Ouzounis, C. A. & Valencia, A., 2003a. Bioinformatics and the theoretical foundations of molecular biology.
Bioinformatics, 18(3), pp. 377-378.
Ouzounis, C. A. & Valencia, A., 2003. Early bioinformatics: the birth of a discipline – a personal view.
Bioinformatics, 19(17), pp. 2176-2190.
Oxman, R., 2006. Theory and design in the first digital age. Design Studies, Volumen 27 , pp. 229-65.
Oxman, R., 2008a. Performance-based Design: Current Practices and Research Issues. International Journal of
Architectural Computation, 6(1), pp. 1-17.
Oxman, R., 2008. Digital Architecture as a Challenge for Design Pedagogy: Theory, Knowledge, Models and
Medium. Design Studies, Volumen 29, pp. 99-120.
Peters, B., 2013. Introduction. Computation Works: The Building of Algorithmic Thougth. Architectural design,
83(2), pp. 8-15.
Phelan, S. E., 1999. A Note on the Correspondence Between Complexity and Systems Theory. Systemic Practice
and Action Research, 12(3), pp. 237-246.
Pickering, A., 2002. Cybernetics and the Mangle. Social Studies of Science, 32(3), pp. 413-437.
Picon, A., 2010. Digital Culture in Architecture. An Introduction for the Design Professions. Basel: Birkhauser
GMBH.
Picon, A., 2012. Architecture as performative art. En: E. Neuman & Y. J. Grobman, edits. Performalism. Form
and Performance in Digital Architecture. London - New York: Routledge, pp. 15-19.
Progresive Architecture, 1967. Performance Design. Progresive Architecture.
10. Bibliografía
221
Progressive Architecture, 1967. Performance Design. s.l.:s.n.
Prusinkiewicz, P. e. a., 1996. L-Systems: From the Theory to Visual Models of Plants. Proceedings of the 2nd
CSIRO Symposium on Computational Challenges in Life Sciences. s.l., CSIRO Publishing.
Prusinkiewicz, P. & Lindenmayer, A., 1990. The Algorithmic Beauty of Plants. New York: Springer-Verlag.
Rahim, A., 2005. Performativity: Beyond Efficiency and Optimization in Architecture. En: B. Kolarevic & A. M.
Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York: Spoon Press, pp. 177-192.
Rahim, A., 2006. Catalytic Formations. Architecture and Digital Design. Oxon: Taylor & Francis.
Rahim, A., 2006. Catalytic Formations: Architecture and Digital Design. s.l.:Taylor & Francis.
Ramage, M., Chapman, D. & Brissell, C., 2013. Editorial: On cybernetics and Complexity. Kybernetes, 42(2), p. 1.
Ramage, M. & Shipp, K., 2009. Systems Thinkers. Londres: Springer.
Raman, M., 2005. Sustainable Design: An American Perspective. En: B. Kolarevic & A. M. Malkawi, edits.
Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 41-54.
Rashad, A. & Alfaris, A., 2010. A Performance Based Generative Design System Methodology for Sustainable
Design in Practice. International Conference on Technology & Sustainability in the Built Environment
Conference. Riya, s.n.
Reiser, J. & Umemoto, N., 2012. Architecture Performing Itself. En: Y. J. Grobman & E. Neuman, edits.
Performalism: Form and Performance in Digital Architecture. New York: Routledge, pp. 171-182.
Rocha, A. J. M., 2004. Architecture Theory 1960- 1980. Emergence of a Computational Perspective. Tesis
doctoral. Cambridge, Mass: Massachusetts Institute of Technology.
Rocker, I. M., 2006. When Code Matters. Architectural Design, 76(4), pp. 16-25.
Rosenblueth, A., Wiener, N. & Bigelow, J., 1943. Purpose, Behavior and Teleology. Philosophy of Science, 10(1),
pp. 18-24.
Rovaletti, M. L., 1989. Teoría general de los sistemas. Signo y Pensamiento, Volumen 15.
Schonwandt, W. L. y otros, 2013. Solving Complex Problems. A Handbook. Berlin: Jovis Verlag GmbH.
Schumacher, P., 2012. Architecture’s Next Ontological Innovation. En: Not Nature, tarp – Architectural Manual.
New York: Pratt Institute.
Schwitter, C., 2005. Engineering Complexity: Performance Based Design in Use. En: B. Kolarevic & A. M.
Malkawi, edits. Performative Architecture. Beyond Instrumentality. New York: Spoon Press, pp. 112-122.
Sean, L. & (eds), Y. J., 2007. Softspace. From a Representation of Form to a Simulation of Space. Oxon:
Routledge.
Searls, D. B., 2010. The roots of Bioinformatics. PLoS Computational Biology, 6(6), pp. 1-7.
Segal, J., 2003. Le zero et le un. Histoire de la notion scientifique d’information au 20e siecle. Paris: Editions
Syllepse.
Siles Gonzales, I., 2007. Cibernética y sociedad de la información: El retorno de un sueño eterno. Signo y
Pensamiento, XXVI(050), pp. 84-99.
Silver, M., 2005. Automason 1.0. The Journal of Architecture and Computation. http://www.comparch.org.html.
Silver, M., 2006. Codes Eros and Craft: An Interview with Evan Douglis. Architectural Design, 76(4), pp. 62-71.
222
Silver, M., 2006. Codes, eros and craft: an interview with Evan Douglis. Architectural Design, 76(4), pp. 62-71.
Simon, H. A., 1996. The Sciences of the Artificial. Cambridge, Mass - Londres: The MIT Press.
Singh, V. & Gu, N., 2012. Towards an integrated generative design framework. Design Studies, Volumen 33, pp.
185-207.
Sprecher, A., 2012. Informationism: information as architectural performance. En: E. Neuman & Y. J. Grobman,
edits. Performalism. Form and Performance in Digital Architecture. London - New York: Routledge, pp. 27-31.
Spuybroek, L., 2005. The Structure of Vagueness. En: B. Kolarevic & A. M. Malkawi, edits. Performative
Architecture. Beyond Instrumentality. New York: Spoon Press, pp. 161-176.
Spuybroek, l., 2010. NOX Diagrams. En: M. Garcia, ed. The Diagrams of Architecture. s.l.:Wiley.
Terzedis, K., 2006. Algorithmic Architecture. s.l.:Routledge.
Terzedis, K., 2008. Algorithmic Complexity: Out of Nowhere. En: Complexity. Design Strategy and World View.
Berlin: Birkhauser Verlag AG, pp. 75-86.
Testa, P., O'Reilly, U.-M., Weiser, D. & Ross, I., 2001. Emergent Design:a crosscutting research program and
design curriculum integrating architecture and artificial intelligence. Environment and Planning B, 28(4), pp.
481 - 498.
Trifonov, E. N., 2000. Earliest pages of bioinformatics. Bioinformatics, 16(1), pp. 5-9.
Umpleby, S. A. & Dent, E. B., 1999. The origins and purposes of several traditions in systems theory and
cybernetics. Cybernetics and Systems: An International Journal, 30(2), pp. 79-103.
Van Berkel, B. & Bos, C., 2010. Diagrams. En: M. Garcia, ed. The Diagrams of Architcture. s.l.:Wiley, pp. 222-227.
Van Dijkum, C., 1997. From cybernetics to the science of complexity”, Kybernetes, Vol. 26 Nos 6/7, pp. 725–37.
Kybernetes, 26(6-7), pp. 725-737.
Vincent, J., 2009. Biomimetic Patterns in Architectural Design. Architectural Design, 79(6), pp. 74-81.
Virilio, P., 1996. Cybermonde la politique du pire. Conversation avec Philipe Petit. Paris: Textuel.
Von Neumann, J., 1962. Central and Logical Theory of Automata. En: A. Taub, ed. John Von Neumann. Collected
Works. Volume V. Design Of Computers, Theory of Automata and numerical analyisis. Oxford, London, New
York: Pergamon Press.
Waldrop, M. M., 1992. Complexity : the emerging science at the edge of order and chaos. New York : Simon &
Schuster.
Weaver, W., 1948. Science and Complexity. American Scientist, Volumen 36, pp. 536-544.
Weinstock, M., 2004. Morphogenesis and the Mathematics of Emergence. Architectural Design, Volumen 74,
pp. 10-17.
Weinstock, M., 2006a. Self-organisation and the structural dynamics of plants. Architectural Design, 76(2), pp.
26-33.
Weinstock, M., 2006. Self-organisation and material constructions. Architectural Design, 76(2), pp. 34-41.
Weinstock, M., 2010. The architecture of emergence : the evolution of form in nature and civilisation.
Chichester: John Wiley & Sons.
Whalley, A., 2005. Product and Process: Performance Based Architecture. En: B. Kolarevic & A. M. Malkawi,
edits. Performative Architecture. Beyond Instrumentality. New York: Spon Press, pp. 21-40.
10. Bibliografía
223
Wiener, N. (., 1962. Cybernétique et société. Paris: Deux rives.
Wiener, N., 1998. Cibernética o el control y comunicación en animales y máquinas. Barcelona: Tusquets
editores.
Williams, C. J. & Kontovourkis, O., 2008. Practical Emergence. En: Space Craft: Developments in Architectural
Computing. London: RIBA Publishing, pp. 68-81.
Williams, R., 2003. The Technology and the Society. En: N. Wardrip-Fruin & N. Montfort, edits. The
NewMediaReader. Cambridge - Londres: The MIT Press..
Winner, L., 2003. Mythinformation. En: N. Wardrip-Fruin & N. Montfort, edits. The New Media Reader.
Cambridge – Londres: The MIT Press, pp. 588 - 598.
Wolfram, S., 1994. Statistical mechanics of cellulara autómata. En: Cellular automata and complexity: collected
papers. Reading, MA: Addison-Wesley.
Wolfram, S., 2002. A New Kind of Science. Champaign: Wolfram Media.
Zera Polo, A., 2010. Between Ideas and Matters. Icons, Indexes, Diagrams, Drawings and Graphs. En: M. Garcia,
ed. The Diagrams of Architecture. s.l.:Wiley, pp. 237-244.