ABOUT THE SPEAKER
Tom Wujec - Designer
Tom Wujec studies how we share and absorb information. He's an innovative practitioner of business visualization -- using design and technology to help groups solve problems and understand ideas. He is a Fellow at Autodesk.

Why you should listen

Tom Wujec is a Fellow at Autodesk, the makers of design software for engineers, filmmakers, designers. At Autodesk, he has worked on software including SketchBook Pro, PortfolioWall and Maya (which won an Academy Award for its contribution to the film industry). As a Fellow, he helps companies work in the emerging field of business visualization, the art of using images, sketches and infographics to help teams solve complex problems as a group.

He's the author of several books, including Five-Star Mind: Games and Puzzles to Stimulate Your Creativity and Imagination.

More profile about the speaker
Tom Wujec | Speaker | TED.com
TED2009

Tom Wujec: 3 ways the brain creates meaning

Tom Wujec fala sobre 3 modos pelos quais o cérebro cria significados

Filmed:
1,202,950 views

O Designer de Informação Tom Wujec fala sobre as 3 áreas do cérebro que nos auxiliam a entender palavras, sentimentos e conexões. Nesta breve palestra da TED, ele pergunta: qual a melhor maneira de engajar nossos cérebros para nos ajudar a entender grandes idéias?
- Designer
Tom Wujec studies how we share and absorb information. He's an innovative practitioner of business visualization -- using design and technology to help groups solve problems and understand ideas. He is a Fellow at Autodesk. Full bio

Double-click the English transcript below to play the video.

00:12
Last year at TED we aimed to try to clarify
0
0
4000
No ano passado, na TED, nós decidimos tentar esclarecer
00:16
the overwhelming complexity
1
4000
2000
a enorme complexidade
00:18
and richness that we experience at the conference
2
6000
3000
e riqueza que nós experienciamos nesta Conferência,
00:21
in a project called Big Viz.
3
9000
2000
num projeto chamado Big Viz (abreviação para Grande Visualização).
00:23
And the Big Viz is a collection of 650 sketches
4
11000
3000
E Big Viz é uma coleção de 650 desenhos
00:26
that were made by two visual artists.
5
14000
2000
que foram feitos por 2 artistas visuais.
00:28
David Sibbet from The Grove,
6
16000
2000
O David Sibbet, do "The Grove",
00:30
and Kevin Richards, from Autodesk,
7
18000
2000
e o Kevin Richards, do "Autodesk",
00:32
made 650 sketches that strive to capture
8
20000
3000
fizeram 650 desenhos que tentam capturar
00:35
the essence of each presenter's ideas.
9
23000
4000
a essência das idéias de cada apresentador.
00:39
And the consensus was: it really worked.
10
27000
2000
E o consenso foi de que isto realmente funcionou.
00:41
These sketches brought to life the key ideas,
11
29000
4000
Estes desenhos trouxeram à vida as idéias-chave,
00:45
the portraits, the magic moments
12
33000
2000
os retratos, os momentos mágicos
00:47
that we all experienced last year.
13
35000
2000
que nós todos experienciamos no ano passado.
00:49
This year we were thinking, "Why does it work?"
14
37000
3000
Este ano nós estávamos pensando, "por que isto funciona?"
00:52
What is it about animation,
15
40000
2000
O que é que há nos desenhos animados,
00:54
graphics, illustrations, that create meaning?
16
42000
3000
gráficos, ilutrações, que cria um sentido à eles?
00:57
And this is an important question to ask and answer
17
45000
3000
Esta é uma questão importante para se perguntar e responder.
01:00
because the more we understand how the brain creates meaning,
18
48000
3000
Porque, quanto mais nós entendermos como o cérebro cria sentido,
01:03
the better we can communicate,
19
51000
2000
melhor nós poderemos comunicar.
01:05
and, I also think, the better we can think and collaborate together.
20
53000
3000
E eu também penso, pensaremos melhor colaborando juntos.
01:08
So this year we're going to visualize how
21
56000
2000
Portanto, este ano nós vamos visualizar como
01:10
the brain visualizes.
22
58000
2000
o cérebro visualiza.
01:12
Cognitive psychologists now tell us that the brain
23
60000
2000
Os psicólogos cognitivos nos dizem agora que o cérebro
01:14
doesn't actually see the world as it is,
24
62000
3000
na verdade não vê o mundo como ele é,
01:17
but instead, creates a series of mental models
25
65000
3000
e sim que ele cria uma série de modelos mentais
01:20
through a collection of "Ah-ha moments,"
26
68000
2000
através de uma série de momentos "Ah-ha!",
01:22
or moments of discovery, through various processes.
27
70000
2000
ou momentos de descoberta, através de vários processos.
01:24
The processing, of course, begins with the eyes.
28
72000
3000
O processo, é claro, começa com os olhos.
01:27
Light enters, hits the back of the retina, and is circulated,
29
75000
3000
A luz entra, bate na parte posterior da retina, e circula,
01:30
most of which is streamed to the very back of the brain,
30
78000
3000
e a maior parte é dirigida à parte posterior do cérebro,
01:33
at the primary visual cortex.
31
81000
2000
aonde fica o córtex visual primário.
01:35
And primary visual cortex sees just simple geometry,
32
83000
3000
E o cortéx visual primário vê somente geometria simples,
01:38
just the simplest of shapes.
33
86000
2000
só os mais simples formatos.
01:40
But it also acts like a kind of relay station
34
88000
3000
Mas ele também atua como uma espécie de estação de ligação,
01:43
that re-radiates and redirects information
35
91000
2000
que re-irradia e redirige a informação
01:45
to many other parts of the brain.
36
93000
3000
para várias outras partes do cérebro.
01:48
As many as 30 other parts that selectively make more sense,
37
96000
3000
Cerca de 30 outras partes, seletivamente, fazem mais sentido,
01:51
create more meaning through the kind of "Ah-ha" experiences.
38
99000
3000
criando mais significado através desta espécie de experiencia "Ah-ah!".
01:54
We're only going to talk about three of them.
39
102000
2000
Nós só vamos falar sobre três delas.
01:56
So the first one is called the ventral stream.
40
104000
3000
A primeira é chamada de feixe ventral.
01:59
It's on this side of the brain.
41
107000
2000
Fica neste lado do cérebro.
02:01
And this is the part of the brain that will recognize what something is.
42
109000
4000
E esta é a parte do cérebro que vai reconhecer o que algo é.
02:05
It's the "what" detector.
43
113000
2000
É o detector de "o que".
02:07
Look at a hand. Look at a remote control. Chair. Book.
44
115000
4000
Ver uma mão. Ver um controle remoto. Cadeira. Livro.
02:11
So that's the part of the brain that is activated
45
119000
3000
Portanto esta é a parte do cérebro que é ativada
02:14
when you give a word to something.
46
122000
2000
quando você nomeia algo.
02:16
A second part of the brain is called the dorsal stream.
47
124000
3000
A segunda parte do cérebro é chamada de feixe ventral.
02:19
And what it does is locates the object
48
127000
3000
O que ela faz é localizar o objeto
02:22
in physical body space.
49
130000
3000
no espaço físico.
02:25
So if you look around the stage here
50
133000
2000
Portanto, se você olhar em volta do palco aqui,
02:27
you'll create a kind of mental map of the stage.
51
135000
3000
você vai criar um mapa mental do palco.
02:30
And if you closed your eyes you'd be able to mentally navigate it.
52
138000
3000
E se você fechar os olho, poderá "navegar" mentalmente o palco.
02:33
You'd be activating the dorsal stream if you did that.
53
141000
3000
Você estará ativando o feixe dorsal, se fizer isto.
02:36
The third part that I'd like to talk about
54
144000
2000
A terceira parte da qual eu gostaria de falar
02:38
is the limbic system.
55
146000
2000
é o sistema límbico.
02:40
And this is deep inside of the brain. It's very old, evolutionarily.
56
148000
3000
E ese se situa profundamente dentro do cérebro. É muito antigo, do ponto de vista evolucionário,
02:43
And it's the part that feels.
57
151000
2000
e é a parte que sente.
02:45
It's the kind of gut center, where you see an image
58
153000
2000
É como a parte da intuição, quando você vê uma imagem,
02:47
and you go, "Oh! I have a strong
59
155000
2000
e sente algo como: "Oh! eu tenho uma sensação forte,
02:49
or emotional reaction to whatever I'm seeing."
60
157000
4000
ou emocional ao que estou vendo".
02:53
So the combination of these processing centers
61
161000
3000
A atividade combinada destes 3 centros processadores
02:56
help us make meaning in very different ways.
62
164000
4000
nos auxilia a criar significado, de várias maneiras diferentes.
03:00
So what can we learn about this? How can we apply this insight?
63
168000
3000
O que podemos aprender sobre isto? Como podemos aplicar este insight?
03:03
Well, again, the schematic view
64
171000
2000
Novamente, a visão esquemática
03:05
is that the eye visually interrogates what we look at.
65
173000
3000
é que o olho interroga visulamente o que vemos.
03:08
The brain processes this in parallel, the figments of information
66
176000
3000
O cérebro processa isto em paralelo, em pedaços de informação,
03:11
asking a whole bunch of questions
67
179000
2000
perguntando uma série de questões,
03:13
to create a unified mental model.
68
181000
2000
para criar um modelo mental unificado.
03:15
So, for example, when you look at this image
69
183000
3000
Por exemplo, quando você olha para esta imagem,
03:18
a good graphic invites the eye to dart around,
70
186000
3000
uma boa imagem gráfica convida o olho a passear por ela,
03:21
to selectively create a visual logic.
71
189000
2000
a seletivamente criar lógica visual.
03:23
So the act of engaging, and looking at the image creates the meaning.
72
191000
5000
Portanto, o ato de se engajar e olhar a imagem cria o sentido.
03:28
It's the selective logic.
73
196000
2000
É a lógica seletiva.
03:30
Now we've augmented this and spatialized this information.
74
198000
3000
Agora, nós aumentamos e colocamos esta informação numa forma espacial.
03:33
Many of you may remember the magic wall that we built
75
201000
3000
Vários de vocês lembrarão da parede mágica que nós construimos
03:36
in conjunction with Perceptive Pixel
76
204000
2000
junto com a equipe da Perceptive Pixel,
03:38
where we quite literally create an infinite wall.
77
206000
3000
na qual nós literalmente criamos uma parede infinita.
03:41
And so we can compare and contrast the big ideas.
78
209000
2000
E agora nós podemos comparar e contrastar grandes idéias.
03:43
So the act of engaging and creating interactive imagery
79
211000
3000
Portanto o ato de se engajar e criar imagens interativas
03:46
enriches meaning.
80
214000
2000
enriquece o significado.
03:48
It activates a different part of the brain.
81
216000
3000
Ele ativa uma parte diferente do cérebro.
03:51
And then the limbic system
82
219000
2000
E em seguida o sistema límbico
03:53
is activated when we see motion, when we see color,
83
221000
3000
é ativado quando vemos o movimento, quando vemos cor,
03:56
and there are primary shapes and pattern detectors
84
224000
3000
e há detectores de formas primárias e padrões,
03:59
that we've heard about before.
85
227000
2000
sobre os quais nós ouvimos falar anteriormente.
04:01
So the point of this is what?
86
229000
2000
Qual é o ponto importante disto?
04:03
We make meaning by seeing,
87
231000
3000
Nós criamos sentido através da visão,
04:06
by an act of visual interrogation.
88
234000
2000
através de um ato de interrogação visual.
04:08
The lessons for us are three-fold.
89
236000
2000
As lições contidas são 3:
04:10
First, use images to clarify what we're trying to communicate.
90
238000
4000
-primeiro, use imagens para clarificar o que você está tentando comunicar.
04:14
Secondly make those images interactive
91
242000
3000
-segundo, faça com que estas imagens sejam interativas,
04:17
so that we engage much more fully.
92
245000
2000
de forma que nós nos engajemos muito mais completamente.
04:19
And the third is to augment memory
93
247000
2000
-terceiro, aumente a memória
04:21
by creating a visual persistence.
94
249000
2000
criando uma persistência visual.
04:23
These are techniques that can be used to be --
95
251000
3000
Estas são técnicas que podem ser usadas para -
04:26
that can be applied in a wide range of problem solving.
96
254000
4000
que podem ser aplicadas a uma vasta gama de problemas.
04:30
So the low-tech version looks like this.
97
258000
2000
A visão low-tech parece com isto.
04:32
And, by the way, this is the way in which
98
260000
2000
E, a propósito, esta é a maneira como
04:34
we develop and formulate
99
262000
2000
nós desenvolvemos e formulamos
04:36
strategy within Autodesk,
100
264000
2000
estratégias na Autodesk,
04:38
in some of our organizations and some of our divisions.
101
266000
3000
em algumas das nossas organizações e divisões.
04:41
What we literally do is have the teams
102
269000
2000
O que nós fazemos, literalmente, é que as equipes
04:43
draw out the entire strategic plan
103
271000
3000
desenham todo o plano estratégico
04:46
on one giant wall.
104
274000
2000
numa parede gigante.
04:48
And it's very powerful because everyone gets to see everything else.
105
276000
4000
E isto é muito poderoso, porque todo mundo consegue ver tudo.
04:52
There's always a room, always a place
106
280000
2000
Sempre há uma sala, um local
04:54
to be able to make sense of all of the components
107
282000
3000
onde se pode fazer sentido de todos os componentes
04:57
in the strategic plan.
108
285000
2000
do plano estratégico.
04:59
This is a time-lapse view of it.
109
287000
3000
Isto é uma visão temporal.
05:02
You can ask the question, "Who's the boss?"
110
290000
2000
Você pode perguntar, "quem é o chefe do grupo?"
05:04
You'll be able to figure that out. (Laughter)
111
292000
8000
Você poderá concluir quem ele é.
05:12
So the act of collectively and collaboratively
112
300000
3000
Portanto, o ato de contruir coletivamente
05:15
building the image
113
303000
2000
e colaborativamente a construção da imagem,
05:17
transforms the collaboration.
114
305000
3000
transforma a colaboração.
05:20
No Powerpoint is used in two days.
115
308000
2000
Não se usa nenhum Powerpoint durante 2 dias.
05:22
But instead the entire team
116
310000
2000
Ao invés disto, toda a equipe
05:24
creates a shared mental model
117
312000
2000
cria um modelo mental compartilhado
05:26
that they can all agree on and move forward on.
118
314000
3000
sobre o qual todos estão de acordo, e prosseguem com ele.
05:29
And this can be enhanced and augmented with
119
317000
2000
E isto pode ser aumentado e melhorado com
05:31
some emerging digital technology.
120
319000
3000
algumas das novas tecnologias digitais.
05:34
And this is our great unveiling for today.
121
322000
3000
E isto é a nossa grande apresentação para hoje.
05:37
And this is an emerging set of technologies
122
325000
2000
Isto é um conjunto de novas tecnologias
05:39
that use large-screen displays
123
327000
3000
que usam grandes telas
05:42
with intelligent calculation in the background
124
330000
3000
com cálculo inteligente no pano de fundo
05:45
to make the invisible visible.
125
333000
2000
fazendo com que o invisível se torne visível.
05:47
Here what we can do is look at sustainability, quite literally.
126
335000
3000
Aqui, o que nós podemos fazer é olhar a sustentabilidade, literalmente.
05:50
So a team can actually look at
127
338000
3000
Uma equipe pode ver, de verdade,
05:53
all the key components that heat the structure
128
341000
3000
todos os componentes-chave que energizam a estrutura,
05:56
and make choices and then see the end result
129
344000
2000
e fazer escolhas, e ver o resultado final,
05:58
that is visualized on this screen.
130
346000
3000
que é visualizado na tela.
06:01
So making images meaningful has three components.
131
349000
3000
Portanto, fazer imagens com significado tem 3 componentes.
06:04
The first again, is making ideas clear by visualizing them.
132
352000
3000
O primeiro é tornar as idéias claras, visualizando-as.
06:07
Secondly, making them interactive.
133
355000
2000
Segundo, fazê-las interativas.
06:09
And then thirdly, making them persistent.
134
357000
2000
E terceiro, fazê-las persistentes.
06:11
And I believe that these three principles
135
359000
2000
Eu acredito que estes 3 principios
06:13
can be applied to solving some of the very tough problems
136
361000
4000
podem ser aplicados na resolução de alguns problemas muito difíceis
06:17
that we face in the world today. Thanks so much.
137
365000
2000
que nós encontramos no mundo de hoje. Muito obrigado!
06:19
(Applause)
138
367000
2000
-aplauso-
Translated by Denise Bem David
Reviewed by Belucio Haibara

▲Back to top

ABOUT THE SPEAKER
Tom Wujec - Designer
Tom Wujec studies how we share and absorb information. He's an innovative practitioner of business visualization -- using design and technology to help groups solve problems and understand ideas. He is a Fellow at Autodesk.

Why you should listen

Tom Wujec is a Fellow at Autodesk, the makers of design software for engineers, filmmakers, designers. At Autodesk, he has worked on software including SketchBook Pro, PortfolioWall and Maya (which won an Academy Award for its contribution to the film industry). As a Fellow, he helps companies work in the emerging field of business visualization, the art of using images, sketches and infographics to help teams solve complex problems as a group.

He's the author of several books, including Five-Star Mind: Games and Puzzles to Stimulate Your Creativity and Imagination.

More profile about the speaker
Tom Wujec | Speaker | TED.com