If you ask people about what part of psychology do they think is hard, and you say, "Well, what about thinking and emotions?" Most people will say, "Emotions are terribly hard. They're incredibly complex. They can't -- I have no idea of how they work. But thinking is really very straightforward: it's just sort of some kind of logical reasoning, or something. But that's not the hard part."
Se chiedete alle persone quale parte della psicologia ritengono sia difficile, e dite, beh, che ne pensate delle emozioni? Molte persone diranno: "Le emozioni sono terribilmente difficili. Sono incredibilmente complesse, non possono ... non ho idea di come funzionino. Ma la questione è davvero molto semplice: è solo una cosa di una specie di ragionamento logico o simile. Ma non è la parte difficile".
So here's a list of problems that come up. One nice problem is, what do we do about health? The other day, I was reading something, and the person said probably the largest single cause of disease is handshaking in the West. And there was a little study about people who don't handshake, and comparing them with ones who do handshake. And I haven't the foggiest idea of where you find the ones that don't handshake, because they must be hiding. And the people who avoid that have 30 percent less infectious disease or something. Or maybe it was 31 and a quarter percent. So if you really want to solve the problem of epidemics and so forth, let's start with that. And since I got that idea, I've had to shake hundreds of hands. And I think the only way to avoid it is to have some horrible visible disease, and then you don't have to explain.
Quindi ecco una lista di problemi che sono venuti fuori. Un bel problema è: che facciamo riguardo alla salute? L'altro giorno stavo leggendo qualcosa, e una persona diceva che probabilmente in Occidente, la più grossa causa delle malattie è la stretta di mano. E c'era un piccolo studio sulle persone che non stringono la mano, e si paragonavano a quelle che stringono la mano, e non ho la più pallida idea di dove si trovino quelle che non stringono la mano, perché devono essere nascoste. E le persone che lo evitano hanno il 30% in meno di malattie infettive o simili. O forse era il 31¼%. Così, se volete davvero risolvere il problema delle epidemie e via dicendo, iniziamo con quello. E da quando ho avuto quell'idea, ho dovuto stringere centinaia di mani. E credo che l'unico modo per evitarlo sia di avere qualche orribile malattia visibile, così da non dover dare spiegazioni.
Education: how do we improve education? Well, the single best way is to get them to understand that what they're being told is a whole lot of nonsense. And then, of course, you have to do something about how to moderate that, so that anybody can -- so they'll listen to you. Pollution, energy shortage, environmental diversity, poverty. How do we make stable societies? Longevity. Okay, there're lots of problems to worry about.
Educazione: come miglioriamo l'educazione? Beh, l'unico e miglior modo è fargli capire che quello che gli stanno dicendo non ha assolutamente senso. E poi, certo, si deve fare qualcosa per moderarlo, così che tutti, in qualche modo, ascoltino te. Inquinamento, carenza di energia, diversità ambientale, povertà - come facciamo delle società stabili? Longevità. Okay, ci sono molti problemi di cui preoccuparsi.
Anyway, the question I think people should talk about -- and it's absolutely taboo -- is, how many people should there be? And I think it should be about 100 million or maybe 500 million. And then notice that a great many of these problems disappear. If you had 100 million people properly spread out, then if there's some garbage, you throw it away, preferably where you can't see it, and it will rot. Or you throw it into the ocean and some fish will benefit from it. The problem is, how many people should there be? And it's a sort of choice we have to make.
Ad ogni modo, la domanda di cui credo che dovrebbero parlare le persone - ed è assolutamente un tabù - è, quante persone ci dovrebbero essere? E credo che dovrebbero essere circa 100 milioni o forse 500 milioni. E allora capiremmo che la stragrande maggioranza di questi problemi sparisce. Se ci fossero 100 milioni di persone opportunamente sparse, allora, se ci fossero dei rifiuti, li buttereste via, possibilmente dove non si vedono e marcirebbero. O li buttereste nell'oceano e alcuni pesci ne trarrebbero beneficio. Il problema è, quante persone ci dovrebbero essere? Ed è una specie di scelta che dobbiamo fare.
Most people are about 60 inches high or more, and there's these cube laws. So if you make them this big, by using nanotechnology, I suppose -- (Laughter) -- then you could have a thousand times as many. That would solve the problem, but I don't see anybody doing any research on making people smaller. Now, it's nice to reduce the population, but a lot of people want to have children. And there's one solution that's probably only a few years off. You know you have 46 chromosomes. If you're lucky, you've got 23 from each parent. Sometimes you get an extra one or drop one out, but -- so you can skip the grandparent and great-grandparent stage and go right to the great-great-grandparent. And you have 46 people and you give them a scanner, or whatever you need, and they look at their chromosomes and each of them says which one he likes best, or she -- no reason to have just two sexes any more, even. So each child has 46 parents, and I suppose you could let each group of 46 parents have 15 children. Wouldn't that be enough? And then the children would get plenty of support, and nurturing, and mentoring, and the world population would decline very rapidly and everybody would be totally happy.
Molte persone sono alte circa un metro e mezzo o più, e c'è questa perdita al cubo. Quindi se si facessero grandi così - usando la nanotecnologia immagino - (Risate) - allora ce ne potrebbero essere mille volte di più. Questo risolverebbe il problema, ma non vedo nessuno fare nessun tipo di ricerca per rimpicciolire le persone. Ora, è bello ridurre la popolazione, ma molte persone vogliono avere dei bambini. E c'è una soluzione che probabilmente è lontana solo qualche anno. Sapete di avere 46 cromosomi. Se siete fortunati, ne avete avuti 23 da ognuno dei vostri genitori; a volte se ne ha uno in più o se ne perde uno, ma ... così potete saltare il passaggio dei nonni e dei bisnonni e andare dritti ai trisnonni. E avete 46 persone e gli date uno scanner, o quello di cui avete bisogno, e loro guardano i loro cromosomi e ognuno di loro dice quale gli o le piace di più, ... nessun motivo per avere solo i due sessi anche di più. Quindi ogni bambino ha 46 genitori, e immagino che possiate lasciare che ogni gruppo di 46 genitori abbia 15 bambini - non sarebbe abbastanza? E così i bambini otterrebbero abbondanza di sostegno e nutrimento e attenzione e la popolazione mondiale scenderebbe molto rapidamente e tutti sarebbero assolutamente felici.
Timesharing is a little further off in the future. And there's this great novel that Arthur Clarke wrote twice, called "Against the Fall of Night" and "The City and the Stars." They're both wonderful and largely the same, except that computers happened in between. And Arthur was looking at this old book, and he said, "Well, that was wrong. The future must have some computers." So in the second version of it, there are 100 billion or 1,000 billion people on Earth, but they're all stored on hard disks or floppies, or whatever they have in the future. And you let a few million of them out at a time. A person comes out, they live for a thousand years doing whatever they do, and then, when it's time to go back for a billion years -- or a million, I forget, the numbers don't matter -- but there really aren't very many people on Earth at a time. And you get to think about yourself and your memories, and before you go back into suspension, you edit your memories and you change your personality and so forth. The plot of the book is that there's not enough diversity, so that the people who designed the city make sure that every now and then an entirely new person is created. And in the novel, a particular one named Alvin is created. And he says, maybe this isn't the best way, and wrecks the whole system.
La condivisione del tempo è un po' più lontana nel futuro. E c'è questo grande romanzo che Arthur Clarke ha scritto due volte, chiamato Oltre il buio della notte e La città e le stelle. Sono entrambi meravigliosi e in gran parte gli stessi, tranne per il fatto che nel frattempo sono arrivati i computer. E Arthur guardando questo vecchio libro, ha detto, beh, era sbagliato. Il futuro deve avere qualche computer. Quindi nella sua seconda versione, ci sono 100 miliardi, o 1.000 miliardi di persone sulla terra, ma sono tutti ammassati in hard disk o floppy, o in qualunque cosa abbiano in futuro. E se ne fanno uscire qualche milione per volta. Una persona viene fuori, vive per un migliaio di anni fa quello che fa, e poi, quando è il momento di tornare indietro per un miliardo di anni ... o un milione, lo dimentico, le cifre non contano ... ma non ci sono troppe persone alla volta sulla terra. E si pensa a se stessi e alle proprie memorie, e prima di tornare indietro nel limbo, si cancellano le proprie memorie e si cambia la propria personalità e via dicendo. La trama del libro è che non c'è abbastanza diversità, così che le persone che hanno ideato le città hanno fatto in modo che di tanto in tanto venga creata una persona totalmente nuova. E nel romanzo, ne viene creato uno in particolare di nome Alvin. E dice, forse questo non è il modo migliore, e distrugge il sistema.
I don't think the solutions that I proposed are good enough or smart enough. I think the big problem is that we're not smart enough to understand which of the problems we're facing are good enough. Therefore, we have to build super intelligent machines like HAL. As you remember, at some point in the book for "2001," HAL realizes that the universe is too big, and grand, and profound for those really stupid astronauts. If you contrast HAL's behavior with the triviality of the people on the spaceship, you can see what's written between the lines. Well, what are we going to do about that? We could get smarter. I think that we're pretty smart, as compared to chimpanzees, but we're not smart enough to deal with the colossal problems that we face, either in abstract mathematics or in figuring out economies, or balancing the world around. So one thing we can do is live longer. And nobody knows how hard that is, but we'll probably find out in a few years. You see, there's two forks in the road. We know that people live twice as long as chimpanzees almost, and nobody lives more than 120 years, for reasons that aren't very well understood. But lots of people now live to 90 or 100, unless they shake hands too much or something like that. And so maybe if we lived 200 years, we could accumulate enough skills and knowledge to solve some problems. So that's one way of going about it. And as I said, we don't know how hard that is. It might be -- after all, most other mammals live half as long as the chimpanzee, so we're sort of three and a half or four times, have four times the longevity of most mammals. And in the case of the primates, we have almost the same genes. We only differ from chimpanzees, in the present state of knowledge, which is absolute hogwash, maybe by just a few hundred genes.
Non credo che la soluzione che ho proposto sia abbastanza buona o abbastanza intelligente. Credo che il problema grosso sia che non siamo abbastanza intelligenti per capire quali dei problemi che stiamo affrontando siano buoni abbastanza. Di conseguenza, dobbiamo costruire macchine super intelligenti come HAL. Come ricorderete, ad un certo punto del libro 2001, HAL si rende conto che l'universo è troppo grande e maestoso e ampio per quegli stupidissimi astronauti. Se si confronta il comportamento di HAL con la banalità delle persone sulle astronavi, si può vedere cos'è scritto tra le righe. Beh, cosa faremo per questo? Diventeremo più intelligenti. Credo che siamo piuttosto intelligenti, paragonati agli scimpanzé, ma non siamo abbastanza intelligenti per trattare con i problemi colossali che affrontiamo, sia nella matematica astratta che nel comprendere l'economia o equilibrare il mondo. Quindi una cosa che possiamo fare è vivere di più. E nessuno sa quanto sia difficile, ma probabilmente lo scopriremo nel giro di pochi anni. Vedete, la strada ha due bivi. Sappiamo che le persone vivono due volte di più degli scimpanzé, o quasi, e che nessuno vive più di 120 anni, per ragioni che non sono ben comprensibili. Ma oggi, molte persone vivono fino a 90 o 100 anni, a meno che non stringano troppe mani o cose del genere. E quindi forse se vivessimo 200 anni, potremmo accumulare abilità e conoscenze sufficienti a risolvere alcuni problemi. Quindi questo è un modo di agire. E come ho detto, non sappiamo quanto sia difficile. Potrebbe essere - dopo tutto, molti altri mammiferi vivono la metà degli scimpanzé, quindi noi viviamo tre volte e mezza o quattro - siamo quattro volte più longevi di molti mammiferi. E nel caso dei primati, abbiamo quasi gli stessi geni. Differiamo dagli scimpanzé solo al presente stato di conoscenza - che sono solo sciocchezze - forse per qualche centinaio di geni.
What I think is that the gene counters don't know what they're doing yet. And whatever you do, don't read anything about genetics that's published within your lifetime, or something. (Laughter) The stuff has a very short half-life, same with brain science. And so it might be that if we just fix four or five genes, we can live 200 years. Or it might be that it's just 30 or 40, and I doubt that it's several hundred. So this is something that people will be discussing and lots of ethicists -- you know, an ethicist is somebody who sees something wrong with whatever you have in mind. (Laughter) And it's very hard to find an ethicist who considers any change worth making, because he says, what about the consequences? And, of course, we're not responsible for the consequences of what we're doing now, are we? Like all this complaint about clones. And yet two random people will mate and have this child, and both of them have some pretty rotten genes, and the child is likely to come out to be average. Which, by chimpanzee standards, is very good indeed.
Ciò che credo è che chi conta i geni non sappia ancora ciò che fa. E qualunque cosa facciate, non leggete niente che riguardi la genetica e che sia pubblicato durante la vostra vita. (Risate) Questa roba ha vita breve, come la scienza del cervello. E quindi dovrebbe essere che se ci concentriamo su 4 o 5 geni, potremo vivere 200 anni. O forse solo 30 o 40, e dubito che siano qualche centinaia. Quindi questo è qualcosa di cui le persone discuteranno e molti etici - sapete, un etico è qualcuno che vede qualcosa di sbagliato in tutto ciò che vi passa per la testa. (Risate) Ed è davvero difficile trovare un etico che consideri che qualunque cambiamento valga la pena di essere fatto, perché dice: "e le conseguenze?" E certo, non siamo responsabili per le conseguenze di ciò che facciamo adesso, o no? Come tutte queste lamentele sui cloni. E ancora due persone a caso si uniranno e avranno questo bambino, ed entrambi hanno dei geni abbastanza scadenti, ed è probabile che il bambino venga fuori dalla norma. Che per gli standard degli scimpanzé, è anzi molto buono.
If we do have longevity, then we'll have to face the population growth problem anyway. Because if people live 200 or 1,000 years, then we can't let them have a child more than about once every 200 or 1,000 years. And so there won't be any workforce. And one of the things Laurie Garrett pointed out, and others have, is that a society that doesn't have people of working age is in real trouble. And things are going to get worse, because there's nobody to educate the children or to feed the old. And when I'm talking about a long lifetime, of course, I don't want somebody who's 200 years old to be like our image of what a 200-year-old is -- which is dead, actually.
Se avessimo la longevità, allora dovremmo affrontare comunque il problema dell'aumento della popolazione. Perché se le persone vivessero 200 o 1.000 anni, non potremmo lasciargli avere dei bambini più di una volta ogni 200 o 1.000 anni. E quindi non ci sarebbe forza lavoro. E una della cose che ha messo in evidenza Laurie Garret, e altri, è che una società che non ha persone in età da lavoro, è davvero nei guai. E le cose peggioreranno, perché non ci sarebbe nessuno ad educare i bambini o a nutrire gli anziani. E quando parlo di una vita lunga, certo non voglio che qualcuno che ha 200 anni sia l'immagine di ciò che è un bicentenario - che in effetti, è morto.
You know, there's about 400 different parts of the brain which seem to have different functions. Nobody knows how most of them work in detail, but we do know that there're lots of different things in there. And they don't always work together. I like Freud's theory that most of them are cancelling each other out. And so if you think of yourself as a sort of city with a hundred resources, then, when you're afraid, for example, you may discard your long-range goals, but you may think deeply and focus on exactly how to achieve that particular goal. You throw everything else away. You become a monomaniac -- all you care about is not stepping out on that platform. And when you're hungry, food becomes more attractive, and so forth. So I see emotions as highly evolved subsets of your capability. Emotion is not something added to thought. An emotional state is what you get when you remove 100 or 200 of your normally available resources.
Sapete, ci sono circa 400 diverse parti del cervello che sembrano avere diverse funzioni. Nessuno sa in dettaglio come lavori la maggior parte di esso, ma sappiamo che contengono molte cose diverse. E non sempre lavorano insieme. Mi piace la teoria di Freud che molte di loro si annullano a vicenda. Quindi se pensate a voi stessi come ad una specie di città con un centinaio di risorse, allora, quando si è spaventati, per esempio, si possono eliminare gli obiettivi ad ampio raggio, ma si può pensare con profondità e focalizzarsi esattamente su come raggiungere quel particolare obiettivo. Tutto il resto si butta via. Si diventa monomaniaci - tutto ciò di cui importa è non uscire da quella piattaforma. E quando si è arrabbiati, il cibo diventa più interessante, e così via. Quindi considero le emozioni come sotto gruppi molto evoluti delle vostre capacità. L'emozione non è qualcosa che si aggiunge al pensiero. Uno stato emozionale è ciò che si ottiene quando si eliminano 100 o 200 delle normali risorse disponibili.
So thinking of emotions as the opposite of -- as something less than thinking is immensely productive. And I hope, in the next few years, to show that this will lead to smart machines. And I guess I better skip all the rest of this, which are some details on how we might make those smart machines and -- (Laughter) -- and the main idea is in fact that the core of a really smart machine is one that recognizes that a certain kind of problem is facing you. This is a problem of such and such a type, and therefore there's a certain way or ways of thinking that are good for that problem. So I think the future, main problem of psychology is to classify types of predicaments, types of situations, types of obstacles and also to classify available and possible ways to think and pair them up. So you see, it's almost like a Pavlovian -- we lost the first hundred years of psychology by really trivial theories, where you say, how do people learn how to react to a situation? What I'm saying is, after we go through a lot of levels, including designing a huge, messy system with thousands of ports, we'll end up again with the central problem of psychology. Saying, not what are the situations, but what are the kinds of problems and what are the kinds of strategies, how do you learn them, how do you connect them up, how does a really creative person invent a new way of thinking out of the available resources and so forth.
Quindi pensando alle emozioni come all'opposto di ... come qualcosa meno che il pensare, è immensamente produttivo. E spero, nei prossimi anni, di dimostrare che ciò porterà a macchine più intelligenti. E suppongo che sia meglio saltare tutto il resto, ovvero alcuni dettagli su come potremmo fare queste macchine intelligenti e - (Risate) - e l'idea principale è infatti che il nucleo di una macchina davvero intelligente sia uno che riconosce che si sta affrontando un certo tipo di problema . Questo è un problema di tal tipo, e quindi c'è o ci sono determinati modi di pensare che vanno bene per quel problema. Quindi credo che il problema principale e futuro della psicologia sia classificare i tipi di difficoltà, i tipi di situazioni, i tipi di ostacoli e anche classificare modi validi e possibili di pensare, e accoppiarli. Quindi vedete, è quasi come un pavloviano - abbiamo perso le prime centinaia di anni di psicologia per teorie davvero banali dove si dice, come le persone imparano a reagire ad una situazione. Quello che sto dicendo, è che dopo essere passati attraverso molti livelli, incluso l'ideare un enorme e disordinato sistema con migliaia di parti, giungeremo di nuovo al problema centrale della psicologia. Dicendo, non quali sono le situazioni, ma quali sono i tipi di problemi e quali sono le strategie, come si apprendono, come si collegano, come fa una persona molto creativa a inventare un nuovo modo di pensare a partire dalle risorse disponibili e così via.
So, I think in the next 20 years, if we can get rid of all of the traditional approaches to artificial intelligence, like neural nets and genetic algorithms and rule-based systems, and just turn our sights a little bit higher to say, can we make a system that can use all those things for the right kind of problem? Some problems are good for neural nets; we know that others, neural nets are hopeless on them. Genetic algorithms are great for certain things; I suspect I know what they're bad at, and I won't tell you. (Laughter)
Quindi credo che nei prossimi 20 anni, se potessimo liberarci dei tradizionali approcci all'intelligenza artificiale, come reti neurali e algoritmi genetici e sistemi basati sulle regole, e guardare un po' più in alto per dire: "Possiamo creare un sistema che possa usare tutte quelle cose per il giusto tipo di problema?" Alcuni problemi sono buoni per le reti neurali; sappiamo che per altri, le reti neurali non servono a niente. Gli algoritmi genetici sono ottimi per certe cose; immagino di sapere in cosa non vanno bene e non ve lo dirò. (Risate)
Thank you. (Applause)
Grazie. (Applausi)