OS FUNDAMENTOS DA FÍSICA (vol. III) (9ª ed.) – Ramalho

PARTE I. CARGAS ELÉTRICAS EM REPOUSO

CAPÍTULO 1. Eletrização & Força elétrica

Eletrostática como um domínio completamente separado do estudo da força gravitacional.

O nome elétron deriva de elektron, grego para âmbar, substância com que os antigos identificaram pela primeira vez a repulsão e atração de caráter elétrico. Adivinha a quem se atribui a descoberta em primeiro lugar? Ao desatento Tales, O Lunático. Foi preciso esperar até o séc. XVI para que, na Inglaterra, dessem continuidade ao estudo da Eletricidade. Uma “descoberta” nada bárbara (cof, cof)…

A palavra tribo advém do grego tribein e significa <atritar>, <esfregar>. Por isso a eletrização por atrito é também denominada triboeletrização.”

Os materiais como o vidro, que conservam as cargas nas regiões onde elas surgem, são chamados isolantes ou dielétricos. Os materiais nos quais as cargas se espalham imediatamente são chamados condutores. É o caso dos metais.”

Van der Graaf (1901-1967). “Geradores de VdG de grande porte, que armazenam grandes quantidades de carga elétrica, gerando descargas elétricas de enormes proporções, costumam ser utilizados em aceleradores de partículas.”

Corrimões de escadas rolantes e batentes de portas: “Em regiões de clima seco, é relativamente comum um passageiro sentir um pequeno choque ao descer de um veículo e tocá-lo. Isso ocorre porque, sendo o ar seco bom isolante elétrico, a eletricidade estática adquirida por atrito não se escoa para o ambiente, e o passageiro, ao descer, faz a ligação do veículo com o solo. Às vezes é a roupa do passageiro (ou do motorista) que se eletriza por atrito com o banco do carro. Ao descer, o toque na parte metálica produz a descarga e a sensação de choque.”

[!] “Foi o cientista, político e escritor americano Benjamin Franklin (1706-1790) quem introduziu os termos eletricidade positiva e eletricidade negativa para designar a eletricidade vítrea e resinosa, respectivamente.” Este homem tão precipitado enquanto politicólogo inventou o pára-raio! Isso o livro-texto da minha época não mostrava…

ATENÇÃO: A experiência realizada por Franklin é muito perigosa. Por isso, jamais tente repeti-la.” HAHAHAHA

Não esperava encontrar isto aqui (p. 35): “Dos inúmeros sermões proferidos pelo Padre Antônio Vieira (1608-1697), os mais famosos são Sermão da Quinta Dominga da Quaresma e Sermão da Sexagésima.”

CAPÍTULO 2. Campo elétrico

(…)

CAPÍTULO 3. Trabalho e potencial elétrico

(…)

CAPÍTULO 4. Condutores em equilíbrio eletrostático. Capacitância eletrostática

Ocorrem por dia, em nosso planeta, cerca de 40 mil tempestades, que originam, aproximadamente, 100 raios por segundo.”

Os dois tipos de pára-raios:

a) Modelo de Franklin

Também chamado simplesmente de pára-raios de F., consta basicamente de uma haste condutora disposta verticalmente na parte mais alta da estrutura a ser protegida. A extremidade superior da haste apresenta de 3 a 4 pontas de um material de elevado ponto de fusão (que não se derreta com a dissipação da energia da descarga). A outra extremidade da haste é ligada, por meio de condutores metálicos, a barras metálicas profundamente cravadas no solo.

Estudos experimentais permitiram concluir que <o campo de proteção oferecido por uma haste vertical é aquele abrangido por um cone, tendo por vértice o ponto mais alto do pára-raios e cuja geratriz forma um ângulo de 60° com a vertical.

b) Modelo de Faraday

Este método consiste em uma malha de captação, formando módulos retangulares, feitos de cabos de cobre nu passando por suportes isoladores, colocados de modo a envolver o topo da estrutura, como uma gaiola. Ao longo da malha, distribuem-se regularmente hastes terminadas em ponta. O aterramento se dá do mesmo modo que o método de F., mas com maior número de terminais. Esse sistema, apesar de mais dispendioso, proporciona maior proteção, sendo utilizado em edificações de grande porte, como ginásios, galpões industriais, etc.

Obs.

O pára-raios radioativo, baseado na ionização do ar por meio da presença de material radioativo no material constituinte da ponta, está proibido no Brasil desde 1989. Quem eventualmente ainda utilize esse tipo de p-r está obrigado a desmontá-lo e encaminhar os componentes à Comissão Nacional de Energia Nuclear (CNEN).”

PARTE II. CARGAS ELÉTRICAS EM MOVIMENTO

CAPÍTULO 5. Corrente elétrica

O pior caso de choque é aquele que se origina quando uma corrente elétrica entra pela mão de uma pessoa e sai pela outra. Nesse caso, atravessando o tórax de ponta a ponta, há grande chance de a corrente afetar o coração e a respiração.

O valor mínimo de intensidade de corrente que se pode perceber é 1mA (micro-ampère). Esse valor provoca sensação de cócegas ou formigamento leve. Entretanto, com uma corrente de intensidade 10x maior a pessoa já perde o controle dos músculos, sendo difícil abrir a mão e livrar-se do contato.

O valor mortal está compreendido entre 10mA e 3A, aproximadamente. Nessa faixa de valores, a corrente, atravessando o tórax, atinge o coração com intensidade suficiente para modificar seu ritmo. Modificado o ritmo, o coração pára de bombear sangue para o corpo e a morte pode ocorrer em segundos. Se a intensidade for ainda mais alta, a corrente pode paralisar completamente o coração. Este se contrai ao máximo e mantém-se assim enquanto passa a corrente. Interrompida a corrente, geralmente o coração relaxa e pode começar a bater novamente, como se nada tivesse acontecido. Todavia, paralisado o coração, paralisa-se também a circulação sangüínea, e uma interrupção de poucos minutos dessa circulação pode provocar danos cerebrais irreversíveis.”

CAPÍTULO 6. Resistores

Existem elementos de circuitos cuja função, entre outras, é a de transformar energia elétrica em energia térmica (dissipar energia elétrica) ou limitar a intensidade da corrente elétrica em circuitos eletrônicos. Tais elementos recebem o nome de resistores.

São exemplos de resistores que se destinam a dissipar energia elétrica: os filamentos de tungstênio das lâmpadas elétricas incandescentes; fios de certas ligas metálicas (como nicromo: liga de níquel e de cromo), enrolados em hélice cilíndrica, utilizados em chuveiro, torneiras elétricas, secadores de cabelos, etc.

Os resistores utilizados para limitar a intensidade de corrente que passa por determinados componentes eletrônicos não têm a finalidade de dissipar energia elétrica, embora isso aconteça inevitavelmente. Comumente, são constituídos de um filme de grafite depositado de modo contínuo sobre um suporte cerâmico ou enrolado em forma de faixas helicoidais.”

Muitos resistores que se destinam a dissipar energia são, algumas vezes, chamados impropriamente de <resistências>. Você certamente já ouviu frases do tipo <é preciso trocar a resistência do chuveiro> ou <a resistência do secador de cabelos queimou>. Na verdade, a resistência elétrica é uma propriedade física do resistor.”

O estudo moderno da eletricidade teve início a partir da observação de um biólogo. Luigi Galvani (1737-1797) verificou que as pernas da rã, que suspendera para secar por meio de presilhas de cobre num suporte de ferro [quem seca uma rã???], contraíam-se quando balançados pelo vento. Galvani atribuiu a ocorrência à existência de correntes elétricas produzidas pelas próprias pernas da rã.

(…) [Mas] o físico Alessandro Volta (1745-1827) não concordou com a hipótese de seu colega biólogo. Para ele, as contrações eram devidas a uma corrente elétrica, mas produzidas de outro modo. Ao serem balançadas pelo vento, as extremidades livres das pernas suspensas tocavam o suporte de ferro. Então estabelecia-se o contato da perna da rã com 2 metais, o cobre, de um lado, e o ferro, do outro. Isso e mais as substâncias ácidas do corpo da rã geravam a corrente responsável pelas contrações. A construção da primeira pilha elétrica por Volta comprovou a veracidade de sua hipótese.”

Com a descoberta do efeito magnético da corrente elétrica, a história da Eletrodinâmica se entrelaça com a do Magnetismo, surgindo então com destaque as pesquisas de cientistas como Oersted, Ampère, Faraday, Maxwell e outros.”

! DICAS CULTURAIS !

As óperas de Verdi adaptando Shakespeare e Schiller. La Traviata, cantada no Poderoso Chefão 2.


Paulicéia Desvairada é considerado como o primeiro livro de poemas do modernismo brasileiro (Mário de Andrade).”

CAPÍTULO 7. Associação de resistores

(…)

CAPÍTULO 8. Medidas elétricas

(…)

CAPÍTULO 9. Geradores elétricos

(…)

CAPÍTULO 10. Receptores elétricos

(…)

CAPÍTULO 11. As leis de Kirchoff

(…)

CAPÍTULO 12. Capacitores

(…)

PARTE III. ELETROMAGNETISMO

CAPÍTULO 13. Campo magnético

campo magnetico

CAPÍTULO 14. Força magnética

(…)

CAPÍTULO 15. Indução eletromagnética

(…)

CAPÍTULO 16. Noções de corrente alternada

(…)

CAPÍTULO 17. Ondas eletromagnéticas

(…)

PARTE IV. INTRODUÇÃO À FÍSICA MODERNA

CAPÍTULO 18. Relatividade especial

No final do séc. XIX, acreditava-se que as ondas eletromagnéticas, a exemplo das ondas mecânicas, necessitavam de um meio material para se propagarem. Esse meio elástico, onipresente e invisível, preenchendo todo o Universo, foi denominado éter. As ondas eletromagnéticas e a luz, em particular, propagavam-se com velocidade c = 300 mil km/s em relação a esse meio.

Como o éter era um meio hipotético, cuja existência jamais fôra provada, em 1887 os cientistas Michelson e Morley realizaram, em Cleveland (EUA), uma experiência para verificar sua existência. Eles consideraram que, se o espaço sideral estivesse preenchdio por um <mar de éter> imóvel e a luz fosse realmente propagada através dele, a velocidade desta deveria ser afetada pela <correnteza de éter> resultante do movimento de translação da Terra. Em outras palavras, um raio de luz lançado no sentido do movimento da Terra deveria sofrer um retardamento, por causa da correnteza do éter, da mesma forma que um nadador é retardado pela correnteza da água ao nadar contra ela.”

Michelson e Morley esperavam encontrar valores diferentes para os intervalos de tempo delta-T e delta-T’, segundo cálculos teóricos previamente feitos. A diferença de tempo deveria ser detectada pela análise da interferência dos feixes de luz no anteparo de sua máquina interferômetro [basicamente um superespelho mergulhado horizontalmente em mercúrio]. Contudo, realizada a experiência, a conclusão foi perturbadora: não havia diferença entre os 2 intervalos de tempo. Repetiram a experiência várias vezes, em épocas e condições técnicas diferentes, chegando sempre à mesma medição. (…) Foi o fim do sistema de referência universal newtoniano.”

CAPÍTULO 19. Física quântica

Na história da Física, existem vários exemplos de conceitos que exigiram revisão ou mesmo substituição, quando novos dados experimentais se puseram a eles. Contudo, no caso da luz, foi a primeira vez em que duas teorias, completamente diferentes, são simultaneamente necessárias, completando-se mutuamente.”


“Logo após a hipótese de
De Broglie, foi desenvolvida por vários físicos notáveis, como Heisenberg, Schrödinger, Born, Pauli [citado em Jung] e Dirac, a Mecânica Quântica.”

CAPÍTULO 20. Física nuclear

A força nuclear forte é a mais intensa das 4 forças fundamentais. Sua intensidade é 1038 vezes maior que a força gravitacional, a mais fraca das quatro. Entretanto, sua ação só se manifesta em distâncias muito pequenas, comparáveis às dimensões do núcleo atômico (10-15m). A intensidade da força nuclear forte diminui rapidamente quando há a separação entre as partículas, praticamente se anulando quando a distância assume as dimensões de alguns diâmetros nucleares. Essa força também é denominada força hadrônica, porque só se manifesta entre os hádrons, grupo de partículas do qual fazem parte os nêutrons e os prótons, mas não os elétrons, que não são afetados pela força nuclear forte.”

A intensidade da força eletromagnética é em média 100x menor que a da força nuclear forte.”

NÃO BRINCAR COM FOGO OU ELETRICIDADE: “Entre os léptons (grupo de partículas das quais faz parte o elétron) e os hádrons, atuando em escala nuclear, desenvolve-se a denominada força nuclear fraca. Sua intensidade é 1025 vezes maior que a da força gravitacional, mas 1013 vezes menor que a da força nuclear forte. Ela é a responsável pela emissão de elétrons por parte dos núcleos de algumas substâncias radioativas, num processo denominado decaimento beta. Atualmente a maior parte dos cientistas admite que a força nuclear fraca e a força eletromagnética são manifestações diferentes de uma mesma interação fundamental, chamando-as de força eletrofraca. Esse é um primeiro passo para a unificação completa das 4 forças fundamentais, entendendo-as como manifestações de uma única superforça.”

a força gravitacional tem grande importância na Astronomia e na Cosmologia, explicando a movimentação dos astros no Universo, bem como a formação de estrelas, galáxias e sistemas planetários.”

Um contato entre uma partícula e sua antipartícula pode resultar num processo de aniquilação da matéria. É o que ocorre entre um elétron e um pósitron, sendo criados dois fótons de alta energia.”

Com a construção de grandes aceleradores de partículas, muitas antipartículas foram descobertas como, p.ex., o antipróton e o antinêutron. O antipróton foi descoberto em 1955 pelos físicos norte-americanos Owen Chamberlain (1920-2006) e Emílio Gino Segré (1905-1989), no Bévatron da Universidade da Califórnia, em Berkeley, EUA. Por esse feito, receberam o prêmio Nobel de Física de 59.”

Entre os bósons, os mais conhecidos são os fótons, que têm massa de repouso nula.”

As partículas elementares elétron, neutrino, múon, tau e suas antipartículas são exemplos de léptons. O nome lépton significa leve, e a razão disso é que sua massa costuma ser menor que a menor massa dos hádrons. Entretanto, sabe-se hoje que o tau, um tipo de lépton que só pode ser encontrado em partículas aceleradas e em raios cósmicos, tem massa que corresponde a quase o dobro da massa do próton.

Os hádrons, que estão sujeitos a todas as interações, podem ser de 2 tipos: os mésons e os bárions. Um tipo de méson, o píon, foi descoberto em 1947 pelo físico brasileiro César Lattes (1924-2005), no pico de Chacaltaya, nos Andes bolivianos, a 5.600m de altitude. Os mésons são partículas cuja massa pode variar desde um valor próximo a 1/7 da massa do próton até valores mais elevados que a massa de núcleos leves. Próton, nêutron, lambda, sigma, Xi, ômega e suas antipartículas são exemplos de bárions.”

Os hádrons, na verdade, não seriam partículas elementares, pelo fato de que são constituídos por partículas ainda menores, os denominados quarks.¹ O modelo dos quarks prevê a existência de 3 tipos, indicados pelas letras u (de up), d (de down) e s (de strange [haha]). Os quarks apresentariam carga elétrica fracionária em relação à carga elementar. Existiriam 3 antiquarks.

¹ O nome quark, dado por Gell-Mann às menores partículas constituintes da matéria, foi tirado do romance Finnegans Wake, de Joyce.

Esse modelo se expandiu com a inclusão de mais 3 tipos de quarks: o c (de charmed), o b (de bottom) e o t (de top) e seus correspondentes antiquarks.”

Os hádrons mais comuns (prótons e nêutrons), denominados núcleons, são constituídos apenas pelos quarks u e d. Um próton seria constituído por 2 quarks u e um quark d, pois a carga elétrica do quark u é +2/3 e a do quark d é -1/3 (carga = 1). Um nêutron seria formado por 2 quarks d e um quark u (carga 0).”

Cada m² da superfície do planeta é atingido, em cada segundo, por cerca de 200 partículas denominadas raio cósmico, com energias de alguns milhões de elétrons-volt. Entre as partículas que constituem a radiação cósmica predominam os elétrons e os núcleos atômicos, principalmente de hidrogênio (prótons). As partículas dos raios cósmicos deslocam-se pelo espaço com velocidades próximas à da luz. Algumas delas são muito mais energéticas do que qualquer outra partícula produzida nos maiores aceleradores de partículas existentes.”

No Brasil, as atividades envolvendo os raios cósmicos marcam o próprio início das pesquisas físicas em nosso país. Por ocasião da implantação da Faculdade de Filosofia, Letras e Ciências Humanas da USP, em 1934, foi marcante a atuação do físico ucraniano de nascimento, naturalizado italiano, Gleb Wataghin (1899-1986), que hoje empresta seu nome ao Instituto de Física da Unicamp.”

Em 1949, foi criado no RJ o Centro Brasileiro de Pesquisas Físicas (CBPF), coordenado por César Lattes e José Leite Lopes (1918-2006), outro importante pesquisador brasileiro, primeiro presidente da Sociedade Brasileira de Física.”

Na esteira dos aperfeiçoamentos dos acelerados de partículas, em 1929, o físico norte-americano Ernest Lawrence (1901-58), prêmio Nobel de física de 39, desenvolveu outro acelerador com concepção diferente, o cíclotron, no qual partículas carregadas eram aceleradas em percursos espiralados, ganhando energia a cada ciclo. Esse conceito ainda hoje é utilizado nos grandes aceleradores.”

quando núcleos pesados como os de urânio são bombardeados por partículas como nêutrons acelerados, originam-se núcleos menores e uma grande quantidade de energia. (…) Essa energia obtida confirmou plenamente a fórmula de Einstein E = mc²”

Em 02/12/1942, na Universidade de Chicago, um grupo de cientistas, dirigido por Enrico Fermi [ironicamente, um italiano ‘ajudou a matar’ o fascismo], criou com sucesso o primeiro reator a conseguir um estado de auto-sustentação ou <crítico>. O reator era abastecido com urânio natural embebido em blocos de grafite, tendo a fissão ocorrido no isótopo do urânio de massa 235 e 92 prótons.”

invenção da bomba a

Chama-se energia de ligação do núcleo a quantidade de energia mínima que o núcleo deve receber para ser possível separar núcleos atômicos. (…) quando núcleons se juntam e se fundem para formar um núcleo mais pesado, há liberação de energia, que corresponde à energia de ligação, i.e., à energia que o núcleo formado deveria receber para que fossem liberados os núcleos originais. No processo que ocorre no Sol, núcleos de hidrogênio unem-se para formar núcleos de hélio e, como subproduto dessa reação nuclear, é liberada uma enorme quantidade de energia.”

Por que não existem usinas de energia de fusão nuclear? “o gasto de energia para se obterem as condições necessárias à realização do processo é maior que a quantidade de energia obtida dele.” “A fusão nuclear causa bem menos problemas que a fissão na obtenção de energia elétrica. Por isso, há um grande empenho dos cientistas e dos governos em todo o mundo para buscar soluções que tornem viável a utilização do processo de fusão em substituição ao de fissão. Nesse sentido, foi criado um projeto internacional, que constitui uma das maiores cooperações científico-tecnológicas dos últimos tempos, o ITER (International Thermonuclear Experimental Reactor). O reator, baseado na tecnologia Tokamak, está sendo construído na França e, uma vez concluído (o primeiro prazo para início das operações é 2016), deverá produzir cerca de 1 GW (1 bilhão de watts) de potência. Tal projeto consumirá mais de 10 bilhões de euros, metade dos quais investidos pela comunidade européia.” Atualizações: https://www.iter.org/sci/iterandbeyond – a máquina sucedânea do projeto ITER tem previsão para entrar em funcionamento nos anos 40: “DEMO is the machine that will address the technological questions of bringing fusion energy to the electricity grid. The principal goals for the DEMO phase of fusion research are the exploration of continuous or near-continuous (steady-state) operation, the investigation of efficient energy capture systems, the achievement of a power output in the Q-value range of 30 to 50 (as opposed to ITER’s 10), and the in-vessel production of tritium (called tritium breeding). DEMO would be a simpler machine than ITER, with fewer diagnostics and a design more targeted to the capture of energy than to the exploration of plasma regimes.” “Beyond DEMO, the final step to producing fusion energy would be the construction of a prototype reactor, fully optimized to produce electricity competitively. The timescale for such a prototype depends heavily on political will to reach this stage, but most forecasts place this phase of fusion energy development at the middle of the century.” Ironicamente, além da União Européia parece que só o Japão está envolvido, sem a presença dos EUA…

supernova

Uma das previsões da relatividade geral de Einstein é a existência de ondas gravitacionais, as quais, apesar das tentativas, ainda não foram observadas. Existe a expectativa de que na eventual colisão de dois buracos negros, envolvendo massas da ordem de milhares de massas equivalentes ao Sol, ondas gravitacionais possam ser detectadas, resolvendo um dos grandes enigmas da Física atual.”

PARTE V. ANÁLISE DIMENSIONAL

CAPÍTULO 21. Análise dimensional

(…)

[+]

Gilbert, De magnete, 1600.

Grattan

THE PHYSICAL PRINCIPLES OF THE QUANTUM THEORY (Ou: sempre podemos saber algo de alguma coisa, porém… sempre há também um socrático porém!) – Heisenberg. Translated by Carl Eckart & Frank C. Hoyt. (1930)

FOREWORD

The structure of the helium atom, the existence of half-quantum numbers in band spectra, the continuous spatial distribution of photo-electrons, and the phenomenon of radioactive disintegration, to mention only a few examples, are achievements of the new theory which had baffled the old.”

This symmetry of the book with respect to the words <particle> and <wave> shows that nothing is gained by discussing fundamental problems (such as causality) in terms of one rather than the other.”

1. INTRODUCTION

Thus it was characteristic of the special theory of relativity that the concepts <measuring rod> and <clock> were subject to searching criticism in the light of experiment (…) A much more radical departure from the classical conception of the world was brought about by the general theory of relativity, in which only the concept of coincidence in space-time was accepted uncritically. According to this theory, classical concepts are applicable only to the description of experiments in which both the gravitational constant and the reciprocal of the velocity of light may be regarded as negligibly small.

Although the theory of relativity makes the greatest of demands on the ability for abstract thought, still it fulfills the traditional requirements of science in so far as it permits a division of the world into subject and object (observer and observed) and hence a clear formulation of the law of causality. This is the very point at which the difficulties of the quantum theory begin. In atomic physics, the concepts <clock> and <measuring rod> (comprimento) [ou seja, tempo e espaço] need no immediate consideration, for there is a large field of phenomena in which i/c is negligible. The concepts <space-time coincidence> and <observation>, on the other hand, do require a thorough revision.” “the interaction between observer and object causes uncontrollable and large changes in the system being observed, because of the discontinuous changes characteristic of atomic processes.” “it appears that in many cases it is impossible to obtain an exact determination of the simultaneous values of 2 variables, but rather that there is a lower limit to the accuracy with which they can be known.” “These uncertainty relations give us that measure of freedom from the limitations of classical concepts which is necessary for a consistent description of atomic processes.”

After Newton’s objections to the wave theory of light had been refuted and the phenomena of interference explained by Fresnel, this theory dominated all others for many years, until Einstein pointed out that the experiments of Lenard on the photoelectric effect could only be explained by a corpuscular theory.”

When the energy of the atom is known, one speaks of a <stationary state of the atom>. When the kinetic energy of the electron is too small to change the atom from its stationary state to a higher one, the electron makes only elastic collisions with the atoms, but when the kinetic energy suffers for excitation some electrons will transfer their energy to the atom, so the electronic current as a function of the velocity changes rapidly in the critical region. The concept of stationary states, which is suggested by these experiments, is the most direct expression of the discontinuity in all atomic processes.”

It is true that it might be postulated that 2 separate entities, one having all the properties of a particle, and the other all the properties of wave motion, were combined in some way to form <light>. But such theories are unable to bring about the intimate relation between the two entities which seems required by the experimental evidence.” The solution of the difficulty is that the two mental pictures which experiments lead us to form – the one of particles, the other of waves – are both incomplete and have only the validity of analogies which are accurate only in limiting cases.” Light and matter are both single entities, and the apparent duality arises in the limitations of our language.” Fortunately, mathematics is not subject to this limitation” “In order to avoid obscuring the essential relationships by too much mathematics, however, it has seemed advisable to relegate this formalism to the Appendix [que eu, claro, não cubro aqui].”

2. CRITIQUE OF THE PHYSICAL CONCEPTS OF THE CORPUSCULAR THEORY

As Bohr has emphasized, if a measurement of its co-ordinate is to be possible at all, the electron must be practically free.” This may be expressed in concise general terms by saying that every experiment destroys some of the knowledge of the system which was obtained by previous experiments.” “It is a matter of personal belief whether such a calculation concerning the past history of the electron can be ascribed any physical reality or not.”

O RABO É MAIS VELOZ QUE A CABEÇA DA COBRA, E AO MESMO TEMPO NÃO É: The orbit is the temporal sequence of the points in space at which the electron is observed. As the dimensions of the atom in its lowest state are of the order 10-8 cm, it will be necessary to use light of wave-lenght not greater than 10-9 cm in order to carry out a position measurement of sufficient accuracy for the purpose. A single photon of such light is, however, sufficient to remove the electron from the atom, because of the Compton recoil. Only a single point of the hypothetical orbit is thus observable. One can, however, repeat this single observation on a large number of atoms, and thus obtain a probability distribution of the electron in the atom.” “This result is stranger than it seems at first glance. (…) there is thus always a small but finite probability of finding the electron at a great distance from the center of the atom.” “This paradox also serves as a warning against carrying out the <statistical interpretation> of quantum mechanics too schematically. Because of the exponential behavior of the Schrödinger function at infinity, the electron will sometimes be found as much as, say, 1cm from the nucleus. One might suppose that it would be possible to verify the presence of the electron at such a point by the use of red light [faixa de onda mais extensa]. This red light would not produce any appreciable Compton recoil and the foregoing paradox would arise once more.” “The statistical predictions of quantum theory are thus significant only when combined with experiments which are actually capable of observing the phenomena treated by the statistics.”

3. CRITIQUE OF THE PHYSICAL CONCEPTS OF THE WAVE THEORY

historically we first encounter attempts to develop 3D wave theories that could be readily visualized (Maxwell and de Broglie waves). (…) The reader must be warned against an unwarrantable confusion of classical wave theory with the Schrödinger theory of waves in a phase space.”

Although it is perhaps possible in principle to diminish these space and time intervals without limit by refinement of the measuring instruments, nevertheless for the physical discussion of the concepts of the wave theory it is advantageous to introduce finite values for the space and time intervals involved in the measurements and only pass to the limit zero for these intervals at the end of the calculations. (…) It is possible that future developments of the quantum theory will show that the limit zero for such intervals is an abstraction without physical meaning” Voilà!

4. THE STATISTICAL INTERPRETATION OF QUANTUM THEORY

It is instructive to compare the mathematical apparatus of quantum theory with that of the theory of relativity. In both cases there is an application of the theory of linear algebras. One can therefore compare the matrices of quantum theory with the symmetric tensors of the special theory of relativity. The greatest difference is the fact that the tensors of quantum theory are in a space of infinitely many dimensions, and that this space is not real but imaginary.” The exact knowledge of the numerical value of any dynamical variable corresponds to the determination of a definite direction in this space, in the same manner as the exact knowledge of the moment of inertia of a solid body determines the principal direction to which this moment belongs (it is assumed that there is zero degeneracy).”

An atom in a (non-degenerate) stationary state presents such a determinate case: The direction characterizing it is that of the kth principal axis of the tensor E, which belongs to the energy value Ekk.” The total angular momentum of the atom, e.g., can be determined simultaneously with its energy.”

FIG 14 VETORES

It follows from this discussion that the value of q’ cannot be uniquely predicted from the result of the experiment determining E, for a disturbance of the system, which is necessarily indeterminate to a certain degree, must occur between the 2 experiments involved. This disturbance is qualitatively determined, however, as soon as one knows that the result is to be an exact value of q. In this case, the probability of finding a value q’ after E has been measured is given by the square of the cosine of the angle between the original direction Ek and the direction q’. (…) This assumption is one of the formal postulates of quantum theory and cannot be derived from any other considerations. It follows from this axiom that the values of 2 dynamical quantities are casually related if, and only if, the tensors corresponding to them have parallel principal axes.”

Thus one becomes entangled in contradictions if one speaks of the probable position of the electron without considering the experiment used to determine it (cf. the paradox of negative kinetic energy, chapter 2).”

If one were to treat the measuring device as a part of the system – which would necessitate an extension of the Hilbert space – then the changes considered above as indeterminate would appear determinate. (…) For these observations, however, the same considerations are valid as those given above [um sistema que contém outro sistema enviesa o experimento], and we should be forced, e.g., to include our own eyes as part of the system, and so on. The chain of cause and effect could be quantitatively verified only if the whole universe were considered as a single system – but then physics has vanished, and only a mathematical scheme remains. The partition of the world into observing and observed system prevents a sharp formulation of the law of cause and effect. (The observing system need not always be a human being; it may also be an inanimate apparatus, such as a photographic plate.)”

With the advent of Einstein’s relativity theory it was necessary for the 1st time to recognize that the physical world differed from the ideal world conceived in terms of everyday experience. It became apparent that ordinary concepts could only be applied to processes in which the velocity of light could be regarded as practically infinite. The experimental material resulting from modern refinements in experimental technique necessitated the revision of old ideas and the acquirement of new ones, but as the mind is always slow to adjust itself to an extended range of experience and concepts, the relativity theory seemed at first repellantly abstract. Nonetheless, the simplicity of its solution of a vexatious problem has gained it universal acceptance. As is clear from what has been said, the resolution of the paradoxes of atomic physics can be accomplished only by further renunciation of old and cherished ideas. Most important of these is the idea that natural phenomena obey exact laws – the principle of causality. In fact, our ordinary description of nature, and the idea of exact laws, rests on the assumption that it is possible to observe the phenomena without appreciably influencing them. To co-ordinate a definite cause to a definite effect has sense only when both can be observed without introducing a foreign element disturbing their interrelation. The law of causality, because of its very nature, can only be defined for isolated systems, and in atomic physics even approximately isolated systems cannot be observed. (…) There exist no infinitesimals by the aid of which an observation might be made without appreciable perturbation.”

Faraday and Maxwell explained electromagnetic phenomena as the stresses and strains of an ether, but with the advent of the relativity theory, this ether was dematerialized; the electromagnetic field could still be represented as a set of vectors in space-time, however. Thermodynamics is an even better example of a theory whose variables cannot be given a simple geometric interpretation.”

resumodaopera

Os matemáticos apertam a mão de Sócrates: nasce a Estatística Aplicada, vulgo cobertor curto da realidade!

Many of the abstractions that are characteristic of modern theoretical physics are to be found discussed in the philosophy of past centuries. At that time these abstractions could be disregarded as mere mental exercises by those scientists whose only concern was with reality, but today we are compelled by the refinements of experimental art to consider them seriously.”

5. DISCUSSION OF IMPORTANT EXPERIMENTS

It is true that an ingenious combination of arguments based on the correspondence principle can make the quantum theory of matter together with a classical theory of radiation furnish quantitative values for the transition probabilities, i.e., either by the use of Schrödinger’s virtual charge density or its equivalent, the element of the matrix representing the electric dipole moment of the atom. Such a formulation of the radiation problem is far from satisfactory and leads to false conclusions.”

Dirac, in his radiation theory, employs the language of the particle representation, but makes use of conclusions drawn from the wave theory of radiation in his derivation of the Hamiltonian function.”

the classical wave theory is sufficient for the discussion of all questions of coherence and interference.”

It is very difficult for us to conceive the fact that the theory of photons does not conflict with the requirements of the Maxwell equations. (…) whenever an experiment is capable of furnishing information regarding the direction of emission of a photon, its results are precisely those which would be predicted from a solution of the Maxewell equations of the needle type (unidirectional beams)”

If one supposes that an experiment has determined the position of the atom with a given accuracy (the value of the momentum must then be correspondingly uncertain), then this means that the density is given by the foregoing expression only in a finite volume v, and is zero elsewhere.” “This example illustrates very clearly how the quantum theory strips even the light waves of the primitive reality which is ascribed to them by the classical theory.”

For a point electron (one of zero radius) even the classical theory yields an infinite value of the energy, as is well known, so that it becomes necessary to introduce a universal constant of the dimension of a lenght – the <radius of the electron>. It is remarkable that in the non-relativistic theory this difficulty can be avoided in another way – by a suitable choice of the order of non-commutative factors in the Hamiltonian function. This has hitherto not been possible in the relativistic quantum theory.

The hope is often expressed that after these problems have been solved the quantum theory will be seen to be based, in a large measure at least, on classical concepts. But even a superficial survey of the trend of the evolution of physics in the past 30 years [Hallo, século XX!] shows that it is far more likely that the solution will result in further limitations on the applicability of classical concepts than that it will result in a removal of those already discovered.” thenDANsING d SONG O’ THE ‘SIR. ENS’! S.O.[CRATE’]S. FLU-TE & HARP BE4 THE HEMLOCK… LOCK ‘EM ALL, THE TRUTHS, WITH STRINGS!

HISTÓRIA DA MATEMÁTICA: Uma visão crítica, desfazendo mitos e lendas – Tatiana Roque, 2012. – CAPÍTULO 7. O século XIX inventa a matemática “pura” ou “A ERA DO RIGOR”

no século XIX, a análise matemática adquiriu a forma que reconhecemos, ainda hoje, como válida. O movimento de rigorização pode ser dividido em duas fases: uma francesa, na qual se destaca a figura de Cauchy; e outra alemã.”

não bastava reconhecer que infinitésimos, ou limites, eram fundamentos inadequados para a análise; uma doutrina positiva se fazia necessária.”

Não que os matemáticos, preocupados com um suposto estado caótico de sua disciplina, tenham feito uma reunião e combinado os novos padrões que deveriam substituir os que estavam em uso. Os pesquisadores do século XVIII sequer percebiam seus métodos como pouco rigorosos ou desorganizados. Portanto, não podemos afirmar que seus resultados carecessem de rigor, como se eles tivessem o objetivo de avançar sem preocupações com a fundamentação de seus métodos. A noção de rigor se transformou na virada do século XVIII para o XIX porque os matemáticos da época se baseavam em crenças e técnicas que não eram mais capazes de resolver os problemas que surgiam no interior da própria matemática. Ou seja, isso não se deu por preocupações formalistas, nem por um interesse metamatemático de fundamentar essa disciplina. O rigor é um conceito histórico, e a noção de rigor de Lagrange era diferente da de Cauchy, que, por sua vez, também seria criticado por Weierstrass, baseado em sua própria concepção aritmética.”

A discussão sobre as quantidades negativas, durante o século XVIII, mostra que somente os números absolutos eram aceitos, pois se pretendia relacionar a existência em matemática a uma noção qualquer de <realidade>. Para avançar, era preciso migrar para um conceito abstrato de número não subordinado à ideia de quantidade.”

Por volta de 1800, a matemática era teórica e prática ao mesmo tempo. Fazia parte de seu projeto representar a natureza por equações, e os matemáticos teóricos se viam como pertencentes à mesma tradição inaugurada por Newton e outros. Uma das consequências da reflexão sobre a estrutura interna da matemática, que ocupou o século XIX, foi a sua separação da física. Ainda que procurasse se estabelecer como uma disciplina independente, a análise do século XVIII era motivada por problemas físicos que continuaram a exercer grande influência por alguns anos.”

Ainda que, desde o século XVII, as entidades algébricas tenham adquirido um lugar de destaque na matemática, até o final do século XVIII as raízes negativas e imaginárias de equações eram consideradas quantidades irreais. Os números que hoje chamamos de <irracionais> apareciam na resolução de problemas, mas também não tinham um estatuto definido.”

A partir daí, a noção de função terá um papel central na matemática, no lugar das curvas ou das expressões analíticas que as representavam. A expressão <ponto de vista dos Conjuntos> não se refere ainda à teoria dos conjuntos. Essa distinção é importante em nossa abordagem, pois pretendemos contextualizar as contribuições de Cantor¹ para a definição de conjunto no desenvolvimento conceitual e abstrato da matemática na Alemanha, ligado aos nomes de Dirichlet, Riemann e Dedekind.”

¹ Ainda hoje tratado como louco e contestado na própria Matemática.

Os métodos sintéticos voltaram a ser defendidos e o valor atribuído à possibilidade de generalização fornecida pela álgebra passou a ser criticado em prol de métodos que pudessem ser mais intuitivos. O ápice desse movimento ocorreu em 1811 e um de seus protagonistas foi Lazare Carnot.”

Nos últimos anos do século XVIII, Laplace adquiriu grande poder na cena francesa, sobretudo depois de se tornar ministro, com o golpe de Napoleão, em 1799. A partir daí, ele passou a incentivar uma padronização do ensino na École Polytechnique com base na análise e na mecânica. O curso de análise deveria ser dividido em 3 partes: análise pura (ou análise algébrica); cálculo diferencial; e cálculo integral. Além disso, a introdução ao cálculo deveria ser feita com base no método de limites, exposto por Lacroix.”

Segundo Schubring, Lazare Carnot é o melhor símbolo da discussão sobre o rigor em análise que teve lugar na França naquele momento, anteriormente esboçada por d’Alembert. As principais contradições dessa reação consistiam em tentar obter, ao mesmo tempo, uma maior generalização da matemática, mas mantendo o apelo à intuição. Em 1797, Carnot já havia publicado uma obra sobre os fundamentos do cálculo chamada Réflexions sur la métaphysique du calcul infinitesimal (Reflexões sobre a metafísica do cálculo infinitesimal), segunda versão de um texto de 1785.”

Não houve descoberta que tivesse produzido, nas ciências matemáticas, uma revolução tão feliz e tão rápida quanto a da análise infinitesimal; nenhuma forneceu meios mais simples, nem mais eficazes, para penetrar no conhecimento das leis da natureza. Decompondo, por assim dizer, os corpos até os seus elementos, ela parece ter indicado sua estrutura interior e sua organização; mas, como tudo o que é extremo escapa aos sentidos e à imaginação, só se pôde formar uma ideia imperfeita desses elementos, espécies de seres singulares que tanto fazem o papel de quantidades verdadeiras quanto devem ser tratados como absolutamente nulos e parecem, por suas propriedades equívocas, permanecer a meio caminho entre a grandeza e o zero, entre a existência e o nada.” Carnot

Mas sua posição mudará depois dessa data. Carnot foi exilado por razões políticas e retornou à França em 1800, graças a Napoleão, que o designou ministro da guerra. Em pouco tempo, contudo, renunciou ao cargo e passou a se dedicar às questões ligadas aos fundamentos da matemática, publicando, em 1813, uma nova edição de seu livro. Nessa nova versão, reviu suas posições sobre a álgebra, afirmando que seus princípios são ainda menos claros do que os do cálculo infinitesimal. Tal posição refletia a concepção mais geral da época, que voltava a valorizar a geometria e o saber dos antigos. Inspirado por essa tendência, Carnot passou a defender o método dos infinitamente pequenos contra o dos limites e propôs seguir os princípios de Leibniz em análise.

Maine de Biran integrou uma segunda geração do grupo dos idéologues franceses e atacou os defensores da álgebra, destacando o caráter obscuro de seus métodos. Segundo ele, a linguagem algébrica é uma prática cega e mecânica que não possui a clareza da geometria.”

A noção de função será então definida antes das noções de continuidade, limite e derivada, a fim de eliminar as incertezas ligadas à concepção sobre essas noções.”

Quando quantidades variáveis são ligadas de modo que, quando o valor de uma delas é dado, pode-se inferir os valores das outras, concebemos ordinariamente essas várias quantidades como expressas por meio de uma delas que recebe, portanto, o nome de <variável independente>; e as outras quantidades, expressas por meio da variável independente, são as que chamamos funções desta variável.” Cauchy

Durante muito tempo a historiografia da matemática enxergou Cauchy como o pai fundador do movimento de rigor na análise, até que começaram a ser identificados alguns erros em sua concepção de continuidade. As duas imagens são as duas faces da mesma moeda. Ao procurar na obra desse matemático francês antecedentes das noções modernas em análise, podemos nos deparar com erros que frustrarão nossas expectativas. Pensamos ser mais proveitoso ver Cauchy como um homem de seu tempo, que buscava um tipo de rigor que já não era o do século XVIII, fundado na algebrização, mas que também não era o rigor típico do século XIX. Para ele, o conceito de continuidade era fundamental, e essa idéia se associava ao universo das curvas. A noção de função se relacionava implicitamente a essas curvas, uma vez que exemplos de funções que não podem ser vistas como curvas ainda não intervinham na matemática da época.

A matemática não era a ferramenta central de uma busca especulativa pela verdade, e sim o elemento principal de uma cultura ligada à engenharia. Esse papel da matemática ajudou a configurar um certo espírito de corpo na elite francesa, que adquiria uma identidade científica. A Revolução democratizara o ideal meritocrático, que substituiu os critérios de nascimento no acesso aos serviços. A admissão na École Polytechnique passou a se dar por concurso e a matemática ganhou status nessa meritocracia, uma vez que tal saber era tido como capaz de medir a inteligência.”

A física matemática e a mecânica celeste eram os principais campos de pesquisa dos matemáticos franceses no século XIX. Eles procuravam estudar as equações que governam fenômenos físicos em mecânica dos fluidos, eletrostática e eletrodinâmica, teoria do calor e da luz, etc. A análise complexa, desenvolvida por Cauchy, emergiu do estudo de equações diferenciais parciais, ligadas a problemas físicos. Em 1824, o secretário perpétuo da Academia de Ciências de Paris, Joseph Fourier, ao relatar os avanços daquele ano, proclamava: O tempo das grandes aplicações das ciências chegou.

Existia uma separação entre, de um lado, a física matemática e a mecânica celeste; e, de outro, a mecânica que lidava com artefatos para a engenharia ou a indústria. Além disso, havia também a geometria, que trabalhava com instrumentos óticos e sobrevivia desde o século XVII. Mesmo para Cauchy o rigor não era uma restrição nem um objetivo em si mesmo; era a condição para o desenvolvimento de métodos gerais com vistas à aplicação. A prática da matemática não era muito valorizada por si mesma, sobretudo em comparação com seu desenvolvimento na Alemanha das décadas seguintes.

Ao afirmarmos que a pesquisa matemática na França inspirava-se nas aplicações não queremos dizer que sua orientação não fosse eminentemente teórica. O domínio de aplicação de uma teoria era tanto maior quanto mais elevado era seu ponto de vista. Esse princípio levava à busca de uma ciência derivada de uma ideia unificadora, caso da análise para Lagrange. O mesmo princípio levou Fourier a constituir sua análise sobre as séries trigonométricas. Logo, como afirma B. Belhoste, o movimento de teorização não se opunha às aplicações; encontrava nelas sua inspiração. O interesse pela solução de problemas de física ou de engenharia e a busca por teorias cada vez mais gerais eram os dois lados da mesma moeda.” Quanto mais se abre a perspectiva de uma “ciência ‘x’ aplicada”, mais se consolida a ciência “x” em sua modalidade teórico-epistemológica – vide desdobramentos da psicanálise científica no século XX. O “científica” como sobrenome da psicanálise eu insiro aqui num sentido extra-moral: os acadêmicos empiricistas, psicólogos de araque e teólogos que se virem para desmoralizá-la, ou seja, aplicar sua crítica enviesada e altamente interessada… Contra ou a favor da Psicanálise como um todo, não poderíamos ter a má-fé de considerá-la um esoterismo judaico, como alguns proto-nazistas insinuaram e ainda insinuam…

Paris deixava de ser o principal centro da atividade matemática e a École Polytechnique perdia seu caráter inovador. O clima de autoritarismo do final do Segundo Império tornou ambíguo o papel da matemática, que era divorciado da pesquisa. Seu estudo era incentivado, acima de tudo, por sua utilidade prática no treinamento de engenheiros e a sociedade se interessava cada vez menos por pesquisas teóricas e abstratas.”

A invasão napoleônica, no início do século XIX, motivou a necessidade de elevar o nível de sofisticação militar e científica da Alemanha. Os alemães explicavam a própria derrota apontando para o alto nível de educação científica dos franceses, consequência da reforma educacional implantada após a Revolução Francesa. O traço característico das universidades que se desenvolviam na Alemanha a partir de 1810 era o papel indissociável entre o ensino e a pesquisa. Essa estreita relação permitia aos professores ir além dos cursos padronizados e elementares, baseados em livros-textos, para introduzir novos resultados, ligados a pesquisas.

O estilo dos matemáticos alemães da época pode ser explicado, em grande parte, pela proximidade com a faculdade de filosofia e pelo contato com filósofos. Promoviam-se, assim, orientações mais teóricas, motivadas também por pressuposições filosóficas. O grupo dos neo-kantianos do início do século XIX, que se opunha ao idealismo de Hegel, exerceu forte influência sobre diversos matemáticos alemães algumas décadas depois. Os valores neo-humanistas enxergavam a matemática como uma ciência pura, o que era expresso na visão de vários pensadores da época. Os conceitos fundamentais deviam ser definidos por meio de outras definições claramente explicitadas e nunca se basear em intuições [e isso foi empreendido por neo-kantianos, quão paradoxal!].

Por favor, não metam Kant no meio! “A matemática em si mesma, ou a assim chamada matemática pura, não depende de suas aplicações. Ela é completamente idealista; seus objetos, número, espaço e força, não são tomados do mundo externo, são idéias primitivas. [Que não derivam do espaço, do tempo, logo do contável, nem do princípio da causalidade! Ok!] Eles seguem seu desenvolvimento independentemente, por meio de deduções a partir de conceitos básicos. … Qualquer adição de aplicações ou ligação com estas, das quais ela não depende, são, portanto, desvantajosas para a própria ciência.”

Os matemáticos não eram mais vistos como práticos; participavam de uma elite intelectual de professores universitários que valorizava o saber puro, principalmente no contexto das humanidades enfatizadas por Humboldt.” Nada mais inconcebível para o Brasil em qualquer período.

Em Berlim, a matemática passou a se basear em noções puramente aritméticas. Nessa atmosfera, Cantor recebeu sua educação matemática entre 1863 e 1869. Weierstrass preferia apresentar seus resultados nos cursos, por isso eles permaneceram praticamente inéditos até 1895, quando foi editado o primeiro volume de suas obras. Mas, durante os anos 1870, sua fama se espalhou. Muitos convidados vinham assistir a seus cursos e escreviam anotações que acabavam circulando. No final do século, a noção de rigor defendida por Weierstrass se tornou predominante, repousando sobre a aritmetização da matemática, conforme essa tendência foi denominada por Felix Klein em 1895, na ocasião do aniversário de 80 anos de Weierstrass.”

As tentativas anteriores de assegurar as bases ontológicas dos conceitos fundamentais da matemática a partir da relação com uma certa realidade, não importa qual fosse, colocavam os alicerces dessa disciplina no mundo externo.”

Dizia eu que a aritmética não existe, a priori

Os seguidores de Al-Khwarizmi resolviam equações e admitiam o caso de raízes irracionais. Ao traduzir o termo grego alogos, que também possui o sentido de <inexprimível>, essas soluções foram chamadas de <mudas> (jidr assam). Nas versões latinas, a designação árabe foi, algumas vezes, traduzida por <números surdos>, que é como os irracionais ficaram conhecidos. Como mencionado no Capítulo 4, os métodos algébricos adquiriram grande autonomia com os árabes (começando a ficar independentes com relação à geometria). Além dos irracionais quadráticos, eles calculavam raízes de ordem qualquer, obtidas pela inversão da operação de potenciação e aproximadas por métodos elaborados que também permitiam resolver equações numéricas.”

Em 1585, o holandês Simon Stevin publicou um texto de popularização em holandês e francês, chamado De Thiende (O décimo, traduzido para o francês como La disme), defendendo uma representação decimal para os números fracionários e mostrando como estender os princípios da aritmética com algarismos indo-arábicos para realizar cálculos com tais números. Apesar de seu sistema ser bastante complexo, sem o uso de vírgulas, o fato de escrever as casas decimais de um número tornava mais evidente a possibilidade de se aumentar o número de casas, o que é útil se quisermos aproximar um número irracional por um racional.

A introdução da representação decimal com vírgulas foi um passo importante na legitimação dos irracionais, uma vez que fornecia uma intuição de que entre dois números quaisquer é sempre viável encontrar um terceiro, aumentando o número de casas decimais. Nota-se, por meio dessa representação, que, apesar de os irracionais escaparem, é possível que racionais cheguem muito perto.”

Raiz de 2 ao longo do tempo, conforme os matemáticos se tornavam cada vez mais especializados em sua “decifração”:

  1. 3/2 =1,5

  2. 7/5 = 1,4

  3. 41/29 = 1,41379310…

  4. 99/70 = 1,41428571…

  5. 17/12 = 1,41666…

Numa linha contínua (eixo x), apenas as divisões (3) e (4) chegavam mais próximas do que seria a “raiz de 2”.

Descoberta, no séc. XVII, do TEOREMA FUNDAMENTAL DA ÁLGEBRA: “O nº de raízes de uma equação é dado pelo seu grau.”

Ex: 2x4 + 5x³ − 35x² − 80x + 48 = 2(x + 3)(x + 4)(x − 4)(x − ½) = 0

Obviamente, para admitir esse número de soluções, será necessário admitir como válidas as soluções que Girard designa <impossíveis>. Mas para que servem essas soluções se elas são impossíveis?”

tanto as verdadeiras raízes quanto as falsas não são sempre reais, mas às vezes apenas imaginárias; o que quer dizer que podemos sempre imaginar tantas quanto dissemos em cada equação, mas às vezes não há nenhuma quantidade que corresponda àquelas que imaginamos.” Descartes, The Geometry, livro III, p. 86, tradução da própria Tatiana Roque.

O exemplo utilizado [por Descartes] para ilustrar esse caso é o da equação dada por x³ − 6x² + 13x − 10 = 0, para a qual podemos imaginar três soluções, das quais apenas uma é real, dada pelo número 2. Quanto às outras, mesmo que as aumentássemos, diminuíssemos ou multiplicássemos, não conseguiríamos fazer com que deixassem de ser imaginárias. A palavra <imaginária>, talvez devido à grande influência da obra de Descartes, passará a ser a mais usada para designar essas quantidades.

Enquanto um número negativo −a era entendido como 0 − a, não se punha o problema de defini-lo em si mesmo.” “Em alguns tratados do século XV os resultados negativos eram usados sem grandes discussões.” “É interessante observar que números negativos, quando apareciam nos cálculos, podiam ser chamados <negativos>, entretanto, quando representavam a solução de uma equação eram ditos <fictícios>.” “Apesar de afirmar explicitamente que a raiz quadrada de um número negativo não é correta, Cardano não se privava de operar com raízes de números negativos.”

Bombelli não usava essa notação. Designando a raiz quadrada por R.q. e a raiz cúbica por R.c., escrevia que R.c. 2.p.dm.R.q.121 + R.c. 2.m.dm.R.q.121. Observamos que ele usava a notação dm.R.q.121 para (raiz quadrada ou simples de -121), o que é diferente de R.q.m.121 [o que diabos é o “d”? ver abaixo!]. Isso indica que a sua notação para (raiz quadrada ou simples de -121) privilegiava a operação realizada com esse número e não o número obtido como raiz de uma quantidade negativa.”

p.dm., que é a abreviação para più di meno, em italiano, designa que estamos somando a raiz quadrada do nº negativo 121 e m.dm., abreviação de meno di meno, designa a subtração dessa mesma quantidade.”

A historiografia retrospectiva da matemática, praticada, por exemplo, por Bourbaki, chega a afirmar que più, meno, meno di meno e più di meno são, respectivamente, 1, −1, −i e i.” “porém, dizer isso hoje soa inadequado. A razão é porque o símbolo i será utilizado como uma unidade imaginária, ao passo que più di meno e meno di meno contêm em suas expressões as idéias de adição e de subtração, ou seja, relacionam-se a operações.”

numerro e³zat0

A introdução de uma nova notação, com os trabalhos de Viète, desviou a atenção dos matemáticos que sucederam os algebristas do século XVI, e ele não admitia nem números negativos e imaginários como raízes de equações, apesar de operar com a regra dos sinais de modo pragmático.”

O livro de Arnauld Nouveaux éléments de géometrie (Novos elementos de geometria) traz o primeiro debate explícito entre dois matemáticos sobre o modo de conceber as quantidades negativas. Schubring mostra que Arnauld recorre a justificativas geométricas, similares às de Cardano, para defender que <menos com menos deve dar menos>. Seu opositor, Prestet, mencionado no Capítulo 6, afirma, ao contrário, que as quantidades negativas devem ter o mesmo estatuto das positivas. Além disso, a regra dos sinais deve ser provada algebricamente e não geometricamente, como Cardano havia proposto e Arnauld justificado.”

Uma novidade é que suas considerações eram escritas em francês e não em latim, como antes. Logo, tiveram grande impacto nos meios cultos franceses até o início do século XVIII.”

TODA RAIZ É UMA CURVA (NENHUMA POTÊNCIA É LINEAR), O MUNDO MESMO É CIRCULAR! “Pascal e Barrow afirmavam que números irracionais deviam ser entendidos somente como símbolos, não possuindo existência independente de grandezas geométricas contínuas. Um número como (raiz de 3), por exemplo, deveria ser entendido como uma grandeza geométrica. § Com Leibniz e Newton, o cálculo infinitesimal passou a usar sistematicamente as séries infinitas. A noção de que a um ponto qualquer da reta está associado um número ficava implícita.” Comentário acima sobre a raiz de 2 e suas 5 respostas.

Nesse período, o cálculo de áreas já estava distante da tradição euclidiana e buscava associar a área a um número. O método utilizado era baseado, primordialmente, na manipulação de séries infinitas, como já era o caso da técnica usada por Pascal e Fermat descrita no Capítulo 6. A solução de problemas envolvendo quadraturas e equações diferenciais fez proliferar o uso dessas séries.”

Arquimedes já havia encontrado limites para a razão entre o perímetro e o diâmetro da circunferência, e outros matemáticos já tinham aproximado o valor dessa razão, mas no contexto do cálculo leibniziano se colocará o problema de admitir π como um número.”

No século XVI, alguns matemáticos, como M. Stifel, já haviam aventado a hipótese de a quadratura ser impossível. Para demonstrar isso, era necessário verificar que o perímetro não está para o diâmetro assim como um número inteiro para outro. Em meados do século XVIII essa possibilidade não surpreendia mais os matemáticos, sobretudo devido à grande variedade de séries infinitas que se relacionavam à quadratura do círculo. Se a soma dessas séries for uma quantidade racional, ela será um número inteiro ou uma fração; caso contrário, pode ser um número transcendente. Desde o século XVII eram fornecidas diversas aproximações para o valor da razão entre o diâmetro e a circunferência do círculo. Mas apenas em meados desse século os matemáticos perceberão que, ao invés de buscar o verdadeiro valor de π, poderiam mostrar que não há <verdadeiro valor>, ou que esse valor é impossível.”

A designação de número <real> começou a ser empregada por volta de 1700 para distinguir essas quantidades das negativas e imaginárias, que ainda não eram consideradas reais.”

Durante os séculos XVII e XVIII, com o estudo das funções transcendentes o logaritmo se tornou um conceito importante para esclarecer as ferramentas algébricas da análise e dar-lhes consistência.”

Clairaut seguiu a mesma linha de Fontenelle, admitindo quantidades negativas como soluções das equações. No entanto, os escritos de ambos foram atacados duramente por d’Alembert, que, na Encyclopédie, criticou radicalmente a aceitação dos números negativos, atitude que, conforme seu pensamento, partia de uma falsa metafísica. Do mesmo modo, devia se rejeitar, ainda segundo ele, a generalidade obtida pela álgebra na resolução de equações. Essa posição contradizia sua defesa do poder de generalização da álgebra no contexto da análise, mas, para d’Alembert, na resolução de equações o uso da álgebra dava lugar a uma metafísica equivocada sobre as quantidades negativas. Ou seja, podia-se aceitar a regra dos sinais nas operações, no entanto não era legítimo conceber quantidades negativas como sendo menores que zero, pois essa idéia é incorreta.

A ruptura provocada por d’Alembert devia-se às suas posições em relação ao logaritmo de números negativos, que requeria a intervenção de números imaginários. Em uma controvérsia com Euler, que descreveremos a seguir, d’Alembert acreditava que esses logaritmos deviam ser reais, o que tentava demonstrar a todo custo. Isso o fez questionar, em geral, o estatuto dos números negativos, evitando o problema de dar consistência a seus logaritmos.”

Se log(1) = 0, aceitar-se-ia log(-1) = 0?

Logo, um nº e seu oposto devem possuir o mesmo logaritmo. Leibniz tinha enunciado a regra de que a derivada de log(x) é igual a 1/x, mas afirmava que ela só era válida para valores reais de x.”

os logaritmos de números negativos devem ser imaginários, e não reais.”

notações como o símbolo (raiz de -1) só começaram a ser usadas no final do séc. XVII.”

D’Alembert registrou em 1784, em sua Encyclopédie, a importância de seu próprio trabalho nos verbetes denominados Équation e Imaginaire. Ele ressaltava ter sido pioneiro em demonstrar que qualquer quantidade imaginária, tomada à vontade, pode sempre ser reduzida à forma (e + função de raiz de -1), com e e f sendo quantidades reais.”

Euler já via a álgebra como uma ciência dos números, e não das quantidades. Para ele, todas as grandezas podiam ser expressas por números e a base da matemática devia se constituir de uma exposição clara do conceito de números e das operações. Entretanto, suas propostas não foram reconhecidas no século XVIII. Para Euler, o modo de se obter os números negativos era similar ao modo de se obter os positivos.”

Chega a ser surpreendente, logo depois de 1800, o número de trabalhos sobre a representação geométrica dos negativos e imaginários escritos por pessoas que não participavam da comunidade matemática. Um exemplo conhecido é o do dinamarquês Caspar Wessel, mas no meio francês houve também o caso do padre Adrien-Quentin Buée, que não integrava a comunidade científica.”

Outro personagem mítico é Jean-Robert Argand. Na historiografia tradicional, diz-se que se tratava de um suíço, amador em matemática, que trabalhava como guardador de livros. Mas essa versão é falsa. Hoje só se pode afirmar que, entre 1806 e 1814, um certo Argand parece ter sido um técnico que estava a par do desenvolvimento da ciência na época.”

Annales de Mathématiques Pures et Appliquées, a primeira revista especializada em matemática, editada fora de Paris por J.D. Gergonne.” “Argand publicou, ainda em 1813, nos Annales de Gergonne, o artigo Essai sur une manière de représenter les quantités imaginaires dans les constructions géométriques (Ensaio sobre uma maneira de representar as quantidades imaginárias nas construções geométricas).” “Supondo uma balança com dois pratos, A e B. Acrescentemos ao prato A as quantidades a, 2a, 3a, 4a, e assim sucessivamente, fazendo com que a balança pese para o lado do prato A. Se quisermos, podemos retirar uma quantidade a de cada vez, restabelecendo o equilíbrio. E quando chegamos a 0? Podemos continuar retirando essas quantidades? Sim, afirmava Argand; basta acrescentá-las ao prato B. Ou seja, introduz-se aqui uma noção relativa do que <retirar> significa: retirar do prato A significa acrescentar ao prato B. Desse modo, as quantidades negativas puderam deixar de ser <imaginárias> para se tornarem <relativas>. [Nasce aí] a grandeza negativa –a

Na balança de Argand, o 0 pode ser visto como ponto de apoio entre os braços. Esse 0 não é propriamente um <nada>, nem o número negativo é um <menos que nada>; o 0 é o referencial que permite a escolha (decisão) de uma orientação que tornará um número positivo ou negativo. Se considerarmos os números um agregado de coisas, como uma pluralidade, o +1 será sempre ligado a acrescentar algo mais, operação que pode ser repetida infinitas vezes, mas não o inverso. A balança de Argand consegue reverter essa dessimetria entre positivos e negativos e o 0 pode ser visto como ponto de apoio dos braços que devem se reequilibrar, à direita e à esquerda, enquanto colocamos pesos em cada um dos pratos ou deles os retiramos.” “A multiplicação deve ser entendida agora como uma rotação em sentido horário, quando se multiplica por (- raiz de -1); e anti-horário quando se multiplica por (+ raiz de -1)” “Temos então, no lugar de uma reflexão, uma rotação.”

Essas primeiras propostas sobre o fundamento dos negativos e imaginários, apresentadas por pensadores que não eram centrais na matemática, revelam que o pensamento da época tinha necessidade de se apoiar em uma epistemologia baseada em uma relação geométrica com a realidade. A tentativa de estender a análise às variáveis complexas, feita por Cauchy, trazia novos problemas e, logo, uma nova demanda quanto à definição desses números de modo formal. A matemática que se desenvolverá a partir de meados do século XIX passará a privilegiar a coerência interna dos enunciados e a definição de seus objetos prescindirá dessa conexão com o mundo externo. A concepção de objetos matemáticos plenamente abstratos é marcante no trabalho de Gauss sobre os números imaginários, o que sugerirá que esses números sejam admitidos em matemática tanto quanto os outros, não sendo mais chamados de <imaginários> e sim de <complexos>.”

Quando, em 1831, Gauss publicou o que denominava <metafísica das grandezas imaginárias>, no artigo Theoria residuorum biquadraticum (Teoria dos resíduos biquadráticos), já tinha renome. Foi o primeiro matemático influente a defender publicamente as quantidades imaginárias, desde seus trabalhos sobre a demonstração do teorema fundamental da álgebra, editado em 1799. De certo modo, pode ser visto como um homem do século XVIII, por não distinguir suas pesquisas das realizadas em física, astronomia e geodésia, além de escrever em latim. Contudo, seus temas de estudo e suas ideias sobre a matemática, sobretudo sua concepção de rigor, aproximam-no das novas tendências do século XIX.”

Na Alemanha, a influência da filosofia de Kant fazia com que os matemáticos se baseassem em concepções epistemológicas diferentes dos franceses. Como mostra Schubring, Gauss retirou boa parte de suas teorias sobre os números negativos e complexos dos trabalhos de um professor do secundário chamado W.A. Förstemann, que, por sua vez, usou os escritos sobre os números negativos que Kant havia publicado em 1763 (Attempt to introduce the conception of Negative Quantities into Philosophy).”

A aritmética generalizada, criada na Idade Moderna, era superior à geometria dos antigos, pois, partindo do conceito de inteiros absolutos, foi possível estender seus domínios passo a passo: de inteiros a frações, de números racionais a números irracionais, de positivos a negativos, de números reais a números imaginários.” “Basta lembrar que Gauss estava envolvido na invenção de uma nova geometria, não-euclidiana, que não se apóia na intuição. As restrições que os objetos matemáticos deviam sofrer para se adequarem ao espaço euclidiano deviam ser, de acordo com sua concepção, eliminadas.” “mas o passo decisivo para que o estatuto dos números complexos fosse firmemente estabelecido foi dado com a introdução da noção de vetor. Esse conceito apareceu na Inglaterra, no século XIX, nos trabalhos de W.R. Hamilton. No final desse século, o plano como conjunto de pontos e o plano como composto de vetores passaram a ser vistos como dois conceitos distintos.”

Dirichlet havia estudado em Paris nos anos 1820 e logo se tornou fundamental para a disseminação da análise e da física matemática francesas na Alemanha. Havia participado do círculo de Fourier, que era secretário-geral da Academia de Ciências, onde Dirichlet conheceu Alexander von Humboldt, que promoveria sua carreira na Alemanha. Dirichlet trabalhou em Berlim até os anos 1850 e, no início da carreira, estudou e divulgou os trabalhos de Gauss sobre a análise de Fourier, a teoria da integração e a física matemática. Na época, a Universidade de Göttingen ainda não era um centro de matemática avançado. Gauss era professor de astronomia e não se via estimulado a transmitir suas descobertas a alunos pouco preparados.” “A presença de Dirichlet, juntamente com Riemann e Dedekind, que se via como seu discípulo, mudaria a matemática praticada na Universidade de Göttingen. Os três inspiravam-se em Gauss e propunham uma visão abstrata e conceitual dessa disciplina. Apesar das diferenças entre seus campos de pesquisa, eles convergiam nas

preferências metodológicas e teóricas e podem ser considerados um grupo.”

o exemplo de Dirichlet é tido como o primeiro passo para que se percebesse a necessidade de expandir a noção de função, uma vez que, nesse caso, esta não tinha nenhuma das propriedades admitidas tacitamente como gerais: não pode ser escrita como uma expressão analítica (segundo Dirichlet); não pode ser representada por uma série de potências; e não é contínua em nenhum ponto (também não é derivável nem integrável).” “Logo, o exemplo de Dirichlet só pode ser visto como uma função se esse conceito for entendido como uma relação arbitrária entre variáveis numéricas.” “Ou seja, apesar de aquilo que ele considerava <arbitrário> ser mais um caso particular do que se entende hoje do uso desse adjetivo, parecia importante, naquele momento, afirmar a generalidade como forma de questionar a redução da prática matemática ao escopo das expressões analíticas.”

Depois da estranha função sugerida por Dirichlet, proliferarão exemplos de funções patológicas, sobretudo na segunda metade do século XIX, que incitarão uma revisão da definição de função. Um exemplo famoso desses <monstros>, como se dizia no meio, era a função construída por Weierstrass, que desafiava o senso comum da época. Por volta de 1860, Weierstrass adotava uma definição de função semelhante à de Dirichlet, mas, em 1872, apresentou à Academia de Ciências de Berlim um exemplo de função contínua não derivável em nenhum ponto. Esse tipo de função contraria nossa intuição geométrica de que uma função traçada continuamente, por um desenho a mão livre, deve ser suave, salvo em pontos excepcionais, ou seja, não pode ter bicos em absolutamente todos os seus pontos.

Diversos exemplos contra-intuitivos surgiram nesse período. Riemann foi responsável pela criação de alguns deles ao longo de seu estudo da integração; a investigação das séries trigonométricas também deu origem a funções bizarras, como a proposta por Du Bois-Reymond (que é contínua mas não pode ser desenvolvida em séries de Fourier); Hankel e Darboux construíram outras funções patológicas e investigaram suas propriedades. Antes, as funções surgiam de problemas concretos, como os de natureza física; agora vinham do interior da matemática, a partir dos esforços dos matemáticos para delimitar os novos conceitos que estavam sendo forjados e deviam servir de fundamento para a análise, como os de função, continuidade e diferenciabilidade.”

A curva de Koch é obtida quando as iterações se repetem ao infinito. No limite, chega-se a uma curva contínua em todos os pontos que não é derivável em nenhum desses pontos (ou seja, é constituída exclusivamente por bicos).” Parece uma moita – um fractal.

Antes desse momento supunha-se, de modo geral, que a reta contivesse todos os números reais. Por isso não havia preocupação em se definir esse tipo de número. Um exemplo disso foi visto anteriormente, no estudo das raízes de uma equação de grau ímpar, ao se admitir que o gráfico de uma função, positiva (para x positivo) e negativa (para x negativo), deve cortar o eixo das abscissas em um ponto que é assumido como um número real.”

Cantor concluiu que a unicidade também pode ser verificada quando a série trigonométrica deixa de ser convergente, ou deixa de representar a função, em um número finito de pontos excepcionais. Logo depois, ele refinou mais uma vez o argumento, ao perceber que sua conclusão ainda era válida mesmo que o número desses pontos excepcionais fosse infinito, desde que estivessem distribuídos sobre a reta de um modo específico. Para estudar essa distribuição dos pontos, era necessário descrever os números reais de um modo mais meticuloso e detalhado, sem supor, implicitamente e de modo vago, que esses números fossem dados pelos pontos da reta.”

A fim de caracterizar a continuidade, Dedekind julgava necessário investigar suas origens aritméticas. Foi o estudo aritmético da continuidade que levou à proposição dos chamados <cortes de Dedekind>. Ele começou por estudar as relações de ordem no conjunto dos números racionais, explicitando verdades tidas como óbvias, por exemplo: se a>b e b>c, então a>c. A partir daí, deduziu propriedades menos evidentes, como a de que há infinitos números racionais entre dois racionais distintos a e c. Dedekind notou que um racional a qualquer divide os números racionais em duas classes, A1 e A2, a primeira contendo os números menores que a; a segunda contendo os números maiores que a. Podemos concluir, assim, que qualquer número em A1 é menor do que um número em A2.”

A argumentação de Dedekind recorria aos gregos para dizer que eles já sabiam da existência de grandezas incomensuráveis. No entanto, não é possível usar a reta para definir os números aritmeticamente, pois os conceitos matemáticos não devem ser estabelecidos com base na intuição geométrica.

Logo, era necessário criar novos números, de tal forma que <o domínio descontínuo dos números racionais R possa ser tornado completo para formar um domínio contínuo>, como é o caso da linha reta. A palavra usada para designar a propriedade da reta que distingue os reais dos racionais é <continuidade>, que seria equivalente ao que chamamos de <completude>. Apesar de Dedekind afirmar que é preciso <completar> os racionais, esse termo não era empregado com sentido técnico.”

Apesar da compreensão comum da palavra <multiplicidade> estar associada à ideia de algo que é <múltiplo> (ou vários), não é nesse sentido que a estamos empregando, o que fica claro quando se fala de <uma multiplicidade>. Usamos <multiplicidade> para indicar algo que possui vários aspectos, ou várias dimensões.”

Dedekind expôs essa questão em uma correspondência com outro matemático alemão, R. Lipschitz, aluno de Dirichlet, na qual diz que a continuidade do domínio das quantidades era uma pressuposição implícita dos matemáticos, além da noção de quantidade não ter sido definida de modo preciso. Até ali, os objetos da matemática, as quantidades, existiam e a necessidade de definir sua existência não se colocava. Ao contrário dessas suposições, no texto Was Sind und was Sollen die Zahlen? (O que são e o que devem ser os números?), Dedekind insiste que o fenômeno do corte, em sua pureza lógica, não tem nenhuma semelhança com a admissão da existência de quantidades mensuráveis, uma noção que ele rejeitava veementemente.” “Retomando as duas classes A1 e A2 definidas anteriormente, ele afirma que a essência da continuidade está no fato de que todos os pontos da reta estão em uma das duas classes, de modo que se todo ponto da primeira classe está à esquerda de todo ponto da segunda classe, então existe apenas um ponto que produz essa divisão.”

Para obter um conjunto numérico que traduza fielmente a continuidade da reta, Dedekind usou um procedimento que se tornaria muito freqüente na matemática. Sempre que encontrarmos um número não-racional produzindo um corte, deveremos incluir esse número na nova categoria a ser criada, que deve admitir racionais e não-racionais. Ou seja, quando o corte é um número irracional, esse número será reunido aos racionais formando um conjunto, que gozará da propriedade de continuidade da reta, chamado de <conjunto dos números reais>.”

A principal propriedade dos números racionais, que os torna essencialmente distintos dos reais, é o fato de poderem ser enumerados. O que é isso? Eles são pontos discretos, não-imbricados entre si, logo, podemos associá-los a números naturais e contá-los. O resultado dessa contagem será um número infinito, mas ela permite enumerar os racionais.

Essa propriedade levará Cantor a concluir que o conjunto dos números racionais é infinito de uma maneira distinta do conjunto dos números reais, que não podem ser enumerados. O procedimento de <enumeração> dos elementos de um conjunto é feito por meio da associação de cada um desses elementos a um número natural; e a associação é definida como uma função de um conjunto no outro, uma correspondência biunívoca entre seus elementos.” “Uma função é dita biunívoca se diferentes elementos no seu domínio estão associados a diferentes elementos no contra-domínio e se cada elemento y no contra-domínio está associado a algum x no domínio.

Podemos pensar na relação <ser filho de> entre os conjuntos A = {alunos de uma turma} e B = {mães dos alunos}. Tal relação constitui uma função, pois não há aluno sem mãe biológica (ainda que esta não esteja mais viva) e cada aluno possui apenas uma mãe biológica. Porém, essa função não é biunívoca, pois pode haver alunos irmãos, isto é, eles terão a mesma mãe (diferentes elementos do domínio com a mesma imagem).

Considere agora a relação <ser o dobro de> entre os conjuntos A = {números naturais} e B = {números pares}. Tal relação constitui uma função biunívoca, pois ao dobrar números naturais diferentes os resultados serão diferentes e cada número par é o dobro de algum número natural (a sua metade).”

Nesse contexto surgirá a idéia de função como uma correspondência entre dois conjuntos numéricos. Se x é um elemento do conjunto dos reais, e n um elemento do conjunto dos naturais, pode ser estabelecida uma correspondência entre x e n, de modo que cada elemento de um conjunto seja associado a um, e somente um, elemento do outro? Essa é a pergunta que Cantor formula para Dedekind em 1873. Ele mesmo provou que é impossível encontrar tal correspondência, estabelecendo uma diferença fundamental entre o número de elementos (cardinalidade) do conjunto de números reais e o número de elementos do conjunto dos números naturais.

O conceito de correspondência biunívoca servirá de base para a constituição da nova teoria dos conjuntos, por volta de 1879. Dois conjuntos são ditos com a mesma <potência> se existe correspondência biunívoca entre seus elementos. Os conjuntos que possuem a mesma potência dos naturais são chamados <enumeráveis>, e os outros são <não-enumeráveis>. A resposta ao critério para que uma série trigonométrica represente uma função, fornecida por Cantor, repousa sobre essa diferenciação, e essa resposta é afirmativa no caso de a série deixar de convergir em infinitos pontos, contanto que eles formem um subconjunto enumerável da reta.”

coisas distintas são entendidas de um mesmo ponto de vista quando consideradas a partir de seus números. Nesse caso, podemos dizer que essas coisas formam um conjunto.”

O ponto de vista de Weierstrass também pode ser dito conceitual, mas de um modo diferente dos matemáticos de Göttingen, pois ele não tinha o mesmo entendimento do tipo de abstração que estava em jogo ao se definirem os conceitos básicos da análise. Cantor foi inspirado por Weierstrass, mas, como mostra Ferreirós, sua dedicação à teoria dos conjuntos levou-o a se afastar do grupo de Berlim. Ele chegou a ser criticado por Weierstrass, e o caráter abstrato de suas definições pode ser relacionado à influência crescente de Riemann e Dedekind em seus trabalhos, a partir dos anos 1880.”

A história da análise matemática é vista, freqüentemente, como uma evolução dos conceitos intuitivos usados no cálculo do século XVII às definições rigorosas propostas pelo movimento de aritmetização da análise e pela teoria dos conjuntos. Um bom exemplo é o título do livro editado por Grattan-Guinness em 1980, From Calculus to Set Theory (Do cálculo à teoria dos conjuntos).”

Na última metade do século XIX, Cantor teria introduzido o infinito na matemática, um dos ingredientes principais para o florescimento espetacular da matemática moderna. Na narrativa tradicional, a repulsa ao infinito, o horror infiniti, teria reinado entre os matemáticos desde os gregos, impedindo os avanços dessa ciência, até que Cantor venceu todas as barreiras e logrou fazer com que o infinito fosse, finalmente, aceito.” Ao preço da própria loucura…

Eu espiei, através das páginas de Russell, a doutrina dos conjuntos, a Mengenlehre, que postula e explora vastos números que um homem imortal não atingiria mesmo se exaurisse suas eternidades contando, e cujas dinastias imaginárias possuem as letras do alfabeto hebreu como cifras. Não me foi dado entrar neste delicado labirinto.” Jorge Luis Borges

Muitas narrativas do início do século XX atribuem a Cantor o papel de pai fundador da moderna teoria dos conjuntos. Como mostra Ferreirós na introdução dessa sua obra monumental sobre a história dessa teoria, em 1914 Hausdorff dedicou o primeiro manual da teoria dos conjuntos a seu criador, Cantor; e Hilbert escolheu a teoria dos conjuntos como um exemplo-chave do tipo de matemática defendida por ele, freqüentemente associada ao nome de Cantor.” “Mas muitos matemáticos e filósofos já haviam tratado rigorosa e positivamente da noção de infinito antes de Cantor. Só para dar dois exemplos na Alemanha: Dedekind, na matemática; e Hegel, na filosofia.” HM

A noção de conjunto não é uma descoberta do século XIX executada por mentes geniais que, finalmente, desvendaram o fundamento correto da matemática, tido como eternamente válido e implícito em todos os tempos, mas que vinha sendo usado por pessoas ainda despreparadas para penetrar seu misterioso labirinto, como na citação de Borges. Preferimos pensar que a matemática efetivamente praticada pelos matemáticos do século XIX partia de pressupostos que os fizeram inventar noções que participavam de uma [cosmo-]visão conceitual e abstrata, propícia ao desenvolvimento da noção de conjunto e à sua aplicação em problemas de naturezas diferentes. Esse ponto de vista, que chamamos <conjuntista>, tem sua própria história, que não se identifica com a história da teoria dos conjuntos, como procuramos mostrar aqui.” “A teoria dos conjuntos emergiu, assim, da investigação de conjuntos concretos, encarados de modo cada vez mais conceitual e abstrato. Essa história é detalhada por Ferreirós. Usamos sua distinção entre a teoria dos conjuntos, como ramo da matemática, e a abordagem conjuntista, como concepção sobre a matemática, com o fim de caracterizar a imagem da matemática que moldou também a maneira de escrever sua história até meados do século XX.”

A visão modernista da matemática prega uma renúncia ao mundo, uma vez que não se deve fazer geometria ou análise com os objetos dados pelo senso comum, mas sim construir o edifício da matemática sobre noções dotadas de uma consistência interna.”

A imagem de que a matemática é um saber axiomatizado baseado nas noções de conjunto e estrutura foi popularizada por Nicolas Bourbaki, a partir de 1939, com o início da publicação de seus Éléments des mathématiques: les structures fondamentales de l’analyse (Elementos de matemática: as estruturas fundamentais da análise). <Bourbaki> é o pseudônimo adotado por um grupo de matemáticos franceses dos anos 1930 cujo objetivo era elaborar livros atualizados sobre todos os ramos da matemática, que pudessem servir de referência para estudantes e pesquisadores. Cada um desses ramos era visto como uma investigação sobre estruturas próprias, tendo como principal ferramenta o método axiomático. Uma de suas principais contribuições foi organizar as subdisciplinas da matemática, selecionando seus conceitos básicos, suas ferramentas e seus problemas. Nesse quadro, a definição de função usada por Dedekind e Cantor será considerada insuficiente e, em seu lugar, Bourbaki proporá:

Definição bourbakista de função: Sejam E e F dois conjuntos, que podem ser distintos ou não. Uma relação entre um elemento variável x de E e um elemento variável y de F é dita uma relação funcional se, para todo x pertencente a E, existe um único y pertencente a F que possui a relação dada com x. Damos o nome função à operação que associa, desse modo, a todo elemento x, pertencente a E, o elemento y, pertencente a F que possui a relação dada com x; y será dito o valor da função no elemento x.

Em seguida, essa primeira versão será reformulada e a função será definida como um determinado subconjunto do produto cartesiano dos dois conjuntos E × F. Ou seja, (…)” Ou seja: falaram merda sem pensar, tsk. “Conjunto e variação passam a ser idéias inconciliáveis.” Não se fala mais de x nem de y.

A definição formal de função, que aprendemos na escola, segue o padrão bourbakista, o que provoca uma dificuldade de conciliação em relação aos exemplos de função que são efetivamente estudados. É difícil associar a noção dinâmica de função, que aparece em situações físicas, à definição formal, de natureza estática. Na história da física, a função serviu para estudar a variação, ou a mudança, a partir de uma escolha de variáveis relevantes em um certo fenômeno. Além dos exemplos físicos, as funções são exemplificadas por curvas ou expressões analíticas, que foram outros modos de conceber funções ao longo da história. Isso mostra que, isolada de seu contexto histórico, a definição de função e as funções que conhecemos durante nosso aprendizado de matemática não convergem. Podemos dizer que se trata de uma deficiência do ensino, porém, não fazemos essas considerações para discutir a educação.” Azar o seu, pois deviam.

Nos Elementos de matemática de Bourbaki, cada um dos livros sobre certa sub-área era introduzido por um relato sobre a evolução histórica daquele assunto até ali. Esses relatos foram reunidos em um só volume, publicado em 1960 como Éléments d’histoire des mathématiques (Elementos de história da matemática), com critérios idênticos para avaliar as idéias importantes do presente e do passado. Não foi à toa que os bourbakistas se preocuparam em escrever uma história da matemática. Alguns de seus membros mais ilustres, como André Weil e Dieudonné, publicaram escritos de história independentemente do grupo, mas reproduzindo o mesmo ponto de vista. A historiografia tradicional da matemática, muitas vezes criticada por nós, foi impulsionada pelo estilo bourbakista.” “Foi, portanto, quando a matemática passou a se enxergar como matemática <pura> que a distinção entre teoria e prática se tornou importante na escrita de sua história.” A arrogância lhe subiu a cabeça e não quis mais andar com os primos… Uma conduta irracional!

Por volta dos anos 1960, as ideias de Bourbaki contaminaram a educação, o que ajudou a cristalizar a concepção pouco, ou nada, histórica da matemática. Com o movimento da matemática moderna, que teve grande repercussão no Brasil, defendia-se que essa disciplina devia ser ensinada com os conceitos de base definidos à maneira bourbakista, que seria adaptada às nossas estruturas cognitivas. Nessa época, muitos matemáticos e educadores compartilhavam a crença de que os alunos têm de ser acostumados a pensar em termos de conjuntos e operações. Piaget chegou a estabelecer uma correspondência entre as estruturas defendidas por Bourbaki e as primeiras operações por meio das quais as crianças interagem com o mundo.” Não é o que a nossa posição nos rankings indica…

[+]

Corry, Modern Algebra and the Rise of Mathematical Structures

Ferreirós, Labyrinth of Thought

Grattan-Guinness, The Development of the Foundations of Mathematical Analysis from Euler to Riemann

Gray, Plato’s Ghost: the Modernist Transformation of Mathematics

Sir Isaac Newton, Two Treatises of the Quadrature of Curves

Lacroix, Traité du calcul différentiel et du calcul intégral

THE UNCERTAINTY RELATIONS IN QUANTUM MECHANICS – D. Sen, 2014

“The famous thought experiment in which Heisenberg imagined measuring the position of an electron using a gamma-ray microscope, finally leads to the concept of a minimum uncertainty product (of the position and momentum uncertainties of the electron under observation) of the order of the Planck’s constant.”

“Though Heisenberg asserted that, ‘this relation is a straight forward mathematical consequence of the quantum mechanical commutation rule for the position and the corresponding momentum operators pq qp = –ih’, he actually derived the relation using a semi-quantitative definition of imprecision/indeterminacy in the position coordinate q and the corresponding momentum p in terms of ‘spreading’ of the Gaussian ‘probability–amplitude packet’ of a microparticle (like electron) and dubbed it ‘a slight generalization’ of the Dirac–Jordan formulation.” “it should be noted that Heisenberg’s view on time was both ambiguous and contradictory.”

“According to Heisenberg1, the uncertainty relations created ‘room’ (1927, p. 180) or ‘freedom’ (1931, p. 43) for the introduction of some non-classical mode of description of experimental data. Although Bohr accepted the conclusions of the paper, he disagreed with Heisenberg’s conception of indeterminacy as a limitation of the applicability of classical notions.”

“For Bohr, the central idea was wave–particle duality and in spite of the fact that the views on QM of the two founding fathers, Heisenberg and Bohr, are often clubbed as the ‘Copenhagen interpretation’, there is considerable difference between their views on uncertainty relation, wave–particle duality and Bohr’s complementarity principle (BCP). Bohr pointed out that the uncertainties in the experiment did not exclusively arise from the discontinuities (existence of quantum of action), but also from the fact that the position and the momentum of the electron cannot be simultaneously defined in the microscope experiment” “On the other hand, Bohr has always defended the uncertainty relations against the objections raised by Einstein in his famous thought experiments christened as Einstein’s slit [fenda] and Einstein’s box.”

“There is no doubt that Heisenberg’s notion of uncertainty played an important role in the initial stages of the development of QM and even now it offers in many cases a quick glimpse of some peculiar quantum results. The use of a mixture of classical and quantum concepts is its real strength, because one can get some picture of what may be happening to the individual ‘particles’ and in most cases it offers a semi-classical explanation for some quantum phenomena.”

“In the general formulation of QM, any pair of non-commuting operators is subject to similar lower bounds for the uncertainty products”

“For a classical particle it is always possible to know both position and momentum with finite errors, i.e. both position and momentum density functions must be compact. This is impossible in the statefunction description because band limited functions cannot be spatially compact.”

“For Bohr, the indeterminacy relations are essentially an expression of wave–particle duality in QM, which he further expounded as the ‘complementarity Principle’ in his Como lecture. However, the ‘wave–particle trade-off’ is now expressed in terms of an inequality, known as Englert–Greenberger duality or simply wave–particle duality relation.”

“This was ridiculed in Lev Landau’s joke: <To violate the time–energy uncertainty relation all I have to do is measure the energy very precisely and then look at my watch!>.”

“this misconception [quebra da lei da termodinâmica clássica] is based on the false axiom that the energy of the universe is an exactly known parameter at all times.” Therefore it is not that the conservation of energy is violated when quantum field theory uses temporary electron–positron pairs in its calculations, but that the energy of quantum systems is not known with enough precision to limit various possibilities.”

“we note that the quantum measurements are generically invasive and measuremental disturbance cannot be calculated accurately. But non-invasive measurements are possible in classical mechanics (CM) and even for invasive measurements, the measuremental disturbance may be calculated and accounted for accurately.”

“Eventually, the recent experimental claims regarding the general failure of the naive error-disturbance and error–error relations, have sparked a stimulating debate concerning the proper mathematical definition of ‘error’ and ‘disturbance’.”

“In view of the absence of a full-fledged theory of time measurements, it may be relevant to point out here that an appropriate time–energy UVUR is yet to be developed.”

FOOL FOOL FOOL: “Any tentative explanation using uncertainty relations provides only naive semi-classical arguments. Nevertheless, it appears that though ‘uncertainty’ and ‘complementarity’ are two independent notions, in some cases they are inextricably related.”

“The first high-precision experimental test for the uncertainty relations came about only in 1969 from Shull’s single-slit neutron diffraction experiment. Later in the 1980s followed the neutron interferometric experiments by Kaiser et al. and Klein et al.”

“Here, the momentum uncertainty is inferred semiclassically from the measured position distribution of the particles at the detection screen using far-field approximation. With this observation, Busch et al. have pointed out that these analyses of the experimental data do not provide model-independent, direct confirmation of the uncertainty relation and discussed its possible model-independent validation.”

“It is finally concluded that, ‘although correct for uncertainties in states, the form of Heisenberg’s precision limit is incorrect if naively applied to measurement’ and that the experiment ‘highlights an important fundamental difference between uncertainties in states and the limitations of measurement in quantum mechanics’.”

“Time indeterminacy was also demonstrated in quantum beats experiment in neutron interferometry by Badurek et al.”

“We conclude this critique with a brief discussion of Popper’s experimental proposal aimed at falsifying uncertainty relations which generated a great deal of interest and controversy. (…) However, following some crucial objections from von Weizsäcker and Einstein, Popper accepted their criticisms and withdrew the proposition.” “Popper’s experiment was realized in 1999 by Kim and Shih using a spontaneous parametric down-conversion (SPDC) photon source. They did not observe an extra spread in the momentum of particle 2 due to particle 1 passing through a narrow slit. In fact, the observed momentum spread was narrower than that contained in the original beam. This observation seemed to imply that Popper was right. However, Kim and Shih asserted that this result does not constitute a violation of the uncertainty principle and observed: ‘Popper and EPR were correct in the prediction of the physical outcomes of their experiments. However, Popper and EPR made the same error by applying the results of two-particle physics to the explanation of the behavior of an individual particle. The two-particle entangled state is not the state of two individual particles. Our experimental result is emphatically NOT a violation of the uncertainty principle which governs the behaviour of an individual quantum’.” “In spite of some basic flaws in the original analysis, Popper’s intuitive recognition of the problem shows great insight. However, it should be pointed out in the same breath that his challenge to the foundation of QM has turned out to be misplaced.”

NOTAS

“Most present-day textbooks emphasize that space and time play fundamentally different roles in quantum mechanics. … time poses no fundamental problem for quantum mechanics. If by space and time one understands the coordinates of a given space and time background, none of these coordinates are operators in quantum mechanics. If, on the other hand, one thinks of position and time as dynamical variables (obeying equations of motion) of a specific physical system situated in space–time, the representation of such variables by quantum mechanical operators is possible.”

THE UNCERTAINTY PRINCIPLE FOR ENERGY AND TIME (ou Ensaio sobre o problema de se endeusar a variável chamada Tempo) – Jan Hilgevoord, 1996

SINOPSE: “Whereas quantum mechanics incorporates a Heisenberg uncertainty relation between the canonical position coordinates and their conjugate momenta(*), there is no reason why a Heisenberg relation should hold between the space coordinates and the canonical momenta, or between the time coordinate and the energy of the system.”

QUESTÕES PRELIMINARES: Qual a relação entre “coordenadas espaciais” e “coordenadas canônicas de posição”? Tratam-se aquelas de uma medida criada para sistemas quânticos? E uma “medição conjugada do momentum” e uma “medição canônica do momentum”, estão em oposição simétrica ou em mundos paralelos, ou seriam sinônimas? A medição canônica seria a fórmula newtoniana em busca de “v”? Esta coordenada temporal trata o tempo relativamente ou é absoluta?

(*) Não é velocidade no sentido newtoniano. Trata-se já da equação E=mc², isto é, uma medição da energia concernente à massa que se move. Mas em linguagem cotidiana aceita-se, ainda, expor o assunto como “indeterminação de posição e velocidade simultaneamente”, à guisa de simplificação do legado heisenberguiano.

“Whereas there is no reason why coordinate time should be an operator in quantum mechanics, John von Neumann¹ considers the treatment of time as a parameter as a weakness of Heisenberg’s theory.”

¹ “the man who gave quantum mechanics a sound mathematical basis.”

“Much of the confusion about the uncertainty principle for energy and time is caused by mixing up the canonical position coordinates of a point particle [átomo do modelo clássico da Física microscópica] and the coordinates of a point in space [espaço trigonométrico? euclidiano ou não?].”

Existe uma protomecânica quântica canônina (Hamilton, von Neumann) e uma mecânica quântica profana. Na busca por mais precisão, aumentou-se a inexatidão. O desespero do vórtex do tempoespaço. Pace of time can’t be calculated. For how much longer will it be tried and true (formulae), aren’t we all through?

Hamilton deu o passo decisivo, no séc. XIX, na álgebra, para que a física abandonasse Euclides, isto é, chegando a princípios não-comutativos de cálculos válidos, embora, como veremos, sua aplicação na Relatividade geral seja falha.

“It should be remarked right away that the transition from arbitrary canonical variables to mechanical operators [absolutos na equação; ou no mínimo <variáveis privilegiadas>] is fraught with problems and that Hamilton and Heisenberg relations [equations] are relatively unproblematic only for Cartesian coordinates and momenta.”

“A canonical transformation is a transformation from one set of canonical variables to another”

“It is not possible to find a Hamiltonian [equation] that generates the motion in the enlarged phase space [quadridimensional ou mais].”

“Why would one want to regard t as an (n+1)th canonical coordinate? This seems to be inspired by the wish to arrive at a relativistically covariant description. If the system consists of a single particle and the coordinates qi are taken to be the 3 Cartesian position coordinates of the particle, it is tempting to try and treat the time parameter as a 4th coordinate to arrive at a relativistically covariant description. This can be done up to a point but ultimately leads out of the normal Hamiltonian scheme.” “The area of the Hamiltonian formalism is the 2n-dimensional phase space of t-dependent canonical variables.” “Accordingly, there is no natural analog for energy and time of the <canonical> uncertainty relations.” Mas esse não é o ponto. Continua-se perdido na indeterminabilidade dos paradigmas “descobertos” (criados seria mais próprio); e aliás a lama apenas engolfa mais e mais corpúsculos, ondas e partículas conforme o relativotempo passa e volta…

“Summarizing, we have seen that in the Hamiltonian formalism a mechanical system is described by n generalized coordinates and n conjugate momenta depending on an evolution parameter t and forming n canonically conjugate pairs. The evolution of the system is governed by the Hamiltonian function. In quantum mechanics the canonical pairs are turned into operators obeying the canonical commutation relations. From these relations uncertainty relations between the operators may, in principle, be derived. From the point of view of this quantization procedure there is no ground to turn the evolution parameter into an operator.”

“In fact, ignoring this distinction between the position of a particle (a material body) and of an abstract point in space [plano cartesiano] has been an important cause of the confusion mentioned in the preceding section.”

“a space translation adds a constant to all canonical variables which denote position in space, whereas their conjugate momenta remain unchanged.”

“The use of the <momentum> for both the generator Pk of space translations and the canonical conjugate momenta pi is apt to cause confusion. This is particularly true in the case of point particles.”

“Confusing the space coordinates with the canonical position variables of point particles led von Neumann to suppose that in a relativistic quantum mechanics time must be an operator and that it would even be desirable to have as many times as there are particles. (…) What von Neumann had in mind would correspond to what may be called a <clock particle>; a point particle provided with a very small <point> clock of unit frequency.”

BINGO, CARO “PRÁTICO DE LABORATÓRIO”! (OU “DA REVOLUÇÃO FRANCESA NA TERMODINÂMICA”): “We may speculate that the concrete notions of time as they are connected with periodic changes would have led to the abstract notion of a single linear time extending from minus to plus infinity. Similarly, the local notions of space as derived from the behaviour of material bodies would have led to the abstract notion of an infinitely extended linear space. Thus there would have originated the idea of an empty, infinitely extended linear space time, the stage on which the drama of nature unfolds and the starting point of most considerations in theoretical physics since Newton.  In fact, the whole of physics, apart from general relativity, is based on this notion. In particular, the concept of space-time symmetries, leading up to important conservation laws, rests on it. (…) [So,] paraphrasing von Neumann, the fact that quantum mechanics presupposes for its formulation the existence of an ordinary space-time frame could be considered as its mains weakness!”

“Up till now we have tried to show that the wish to have a <canonical> commutation relation for energy and time rests on an optical illusion originating in classical mechanics. Nevertheless there are many instances in physics where an uncertainty principle [não o de Heisenberg, mas para mim isso tem 0 em importância!] of some sort for energy and time does hold.”

SOBRE AS QUESTÕES SUSCITADAS NO INÍCIO: Enfim, descobrimos que coordenadas espaciais no sentido da sinopse levam em consideração a distorção (a curva) e finitude espácio-temporais. Já coordenadas canônicas são o que culminou com as diretrizes de René Descartes para a geometria moderna (na reta final do classicismo matemático, digamos assim). O texto ensinou passo a passo o que seria a medição conjugada do momentum, contraposta à medição canônica: o “t” deixa de ser uma variável absoluta e exterior, exógena ao sistema. Todas as variáveis são interdependentes, e não há exatamente uma “substituta” do “t”, senão a consideração de que agora t = S. A medição canônica corresponderia exatamente à norma na época newtoniana.

FOOTNOTES:

 

Albert Einstein: Philosopher-Scientist (ed. Schilpp), 1949.

“Many people take it for granted that we shall find an endless chain of deeper and deeper principles in scientific investigation. (…) Popper and the many others who believe in an infinite chain of more and more fundamental principles might turn out to be right. But I do not think that this position can be argued on the grounds that no one has yet found a final theory. That would be like a 19th-century explorer arguing that, because all previous arctic explorations over hundreds of years had always found that however far north they penetrated there was still more sea and ice left unexplored to the north, either there was no North Pole or in any case no one would ever reach it. Some searches do come to an end.”  Weinberg – Dreams of a Final Theory, 1992

Q U A N T A N E X U M

O tempo se torna um ângulo sobre si próprio. Agudo, reto ou obtuso. A vida começa aos 45 do segundo tempo ou quando a bailarina abre completamente suas pernas no espetáculo.

Quando uma sala se torna virtual, ela apaga o real ou tudo duplica, de modo que não exista mais falso ou verdadeiro? O real a que se apega não seria só um plano formal? O . existe aqui? Aqui onde? Curvatura ou surta?

O tempo é profundo como uma mesa achatada. Porque uma mesa achatada é profunda, já que a mesa original era plana… Agora o Ser plana.

Tempo é dinheiro; então tempo é espaço. Tempo é escasso. Dinheiro é espaço e eu estou magro.

Só pontos gordos de tamanhos palpáveis têm energia (e calorias).

Engoli o vazio. Arrotei e cuspi o caroço (núcleo amorfo).

Os sistemas teóricos abriram suas ações na bolsa de valores chamada mundo.

–Momenta Mori