Wissenschaftliche Zusammenarbeit als Motor für den Frieden

Picture: iStock.com/Rawpixel Ltd

Bild: iStock.com/Rawpixel Ltd

Kann Wissenschaft Brücken zwischen den Nationen der Welt bauen? Das zumindest ist die Hoffnung, die hinter dem Begriff Science Diplomacy steht. Science Diplomacy meint von der Politik abgefragte wissenschaftliche Expertise ebenso wie diplomatische Bemühungen um internationale wissenschaftliche Zusammenarbeit. Aber auch wenn wissenschaftliche Kooperationen erst im zweiten Schritt zur Verbesserung der internationalen Beziehungen führen, ist das ein Erfolg im Sinne der Science Diplomacy.

Eine leidenschaftliche Befürworterin solch großer Kollaborationen ist Professorin Felicitas Pauss, Teilchenphysikerin an der ETH Zürich und vormals Head of International Relations am CERN. 2010 sagte sie im Interview:„Wir haben Mitarbeiter aus der ganzen Welt und ich kann meine Begeisterung dafür ausleben, dass die wissenschaftliche Sprache, die wissenschaftliche Zusammenarbeit über politische Grenzen hinausgeht.“

Bei einer Großforschungsanlage wie dem CERN, an dem allein beim CMS-Projekt rund 3000 Wissenschaftlerinnen und Wissenschaftler von 200 Instituten aus 40 Ländern beteiligt sind, kann man tatsächlich von einem multinationalen Austausch in zwei Richtungen sprechen, denn neben dem Personal vor Ort und den festen Mitgliedsstaaten gibt es sogenannte International Cooperation Agreements, und dadurch profitieren laut Prof. Pauss mehr als 10.000 Wissenschaftler/innen aus 70 Ländern, weil sie die wissenschaftlichen Anlagen für ihre Forschung nutzen können.

Dass die Gründung einer solchen Großforschungsanlage unzählige politische Verhandlungen und Bemühungen diplomatischer Art bedarf, versteht sich von selbst. „Von so vielen Nationen eine verbindliche langfristige finanzielle Zusage zu erhalten, ist eine große Herausforderung. Vom ersten Konzept bis zur Inbetriebnahme des Teilchenbeschleunigers LHC im Jahr 2008 dauerte es mehr als 20 Jahre“, so Prof. Pauss. Die Gründungsversammlung liegt sogar über 60 Jahre zurück: Sie fand 1954 statt.

Live-Schaltung zum CERN mit Generaldirektorin Fabiola Gianotti und Kollegen auf dem diesjährigen LNLM – es diskutierten auf dem Podium Steven Chu, David Gross, Takaaki Kajita und Carlo Rubbia zum Thema „Glimpses Beyond the Standard Model“, moderiert von Felicitas Pauss.

Nach dem zweiten Weltkrieg mussten die ehemals verfeindeten Nationen die abgebrochenen wissenschaftlichen Beziehungen wieder aufnehmen – und Deutschland seine komplette Isolierung von der weltweiten Wissenschaftsgemeinschaft überwinden. In den USA erreichte John F. Kennedy 1961 einen entsprechenden Kooperationsvertrag mit Japan.

In Deutschland hatten die beiden Lindauer Ärzte Dr. Franz Karl Hein und Prof. Gustav Parade 1951 die Idee, Nobelpreisträger aus den wissenschaftlichen Disziplinen Chemie, Physik und Medizin zusammen zu bringen und fanden in Graf Lennart Bernadotte einen idealen Förderer und Gastgeber. Über die Jahre wurde die Idee weiter ausgebaut: Die Einladung an die Nachwuchswissenschaftler/innen aus aller Welt, sich um eine Teilnahme zu bewerben, kam hinzu und trug wesentlich dazu bei den Wahlspruch der Tagungen „Educate, Inspire, Connect“ mit Leben zu erfüllen. Der Impetus der Meetings wurde letztes Jahr besonders deutlich spürbar, als während der Tagung eine Mehrheit der anwesenden Nobelpreisträger/innen die „Mainau Declaration 2015 on Climate Change“ unterzeichnete.

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Nobelpreisträger Kailash Satyarthi, hier beim Unterzeichnen der “Mainau Declaration on Climate Change”, veröffentlichte jüngst einen Artikel, der sich gegen Nuklearwaffen ausspricht. Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Ebenfalls Anfang der fünfziger Jahre wurde der Deutsche Akademische Austauschdienst (DAAD) in Bonn wieder gegründet. Der DAAD ist mittlerweile eine der größten Förderorganisationen für den internationalen Austausch von Akademiker/innen weltweit. Er führt auch das sehr beliebte Erasmus-Programm der Europäischen Union durch. Diese akademische Völkerverständigung machte Deutschland wieder weltoffener und leistungsstärker und dasselbe gilt für seine Partnerorganisationen in der Welt.

In den USA ist Science Diplomacy ein gesetzter Begriff und wird als Aushängeschild einer modernen Politik genutzt. Unter Barack Obamas Führung erlangte der Begriff einige Popularität. Obamas Bemühungen zu Zeiten des aufkommenden arabischen Frühlings, die amerikanische Scientific Community und Wissenschaftler/innen aus überwiegend muslimischen Ländern über wissenschaftliche und technische Innovationen näher zusammen zu bringen, sind ein Beispiel dafür. Es schmerzt im Angesicht der heutigen politischen Situation auf solch hoffnungsvolle Erwartungen zurückzublicken. Auch Nobelpreisträger Peter Agre hatte in einem Artikel die Bemühungen der US-Regierung geschildert, aber im gleichen Atemzug gemahnt, dass die Anstrengungen noch weiter erhöht werden müssten.

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Agres Worte zu Science Diplomacy, wie er sie versteht, sind aber zeitlos:

„Science is a wide-ranging effort that naturally crosses borders, and so scientist-to-scientist collaboration can promote goodwill at the grass roots.“

Und es gibt jenseits des aktuellen politischen Geschehens ein unschlagbares Argument für Science Diplomacy – die komplexen globalen Probleme und Konflikte können nur mit einem globalen Ansatz gelöst werden, und für den ist die Wissenschaft prädestiniert. Kein medizinisches Forschungsteam hat als Ziel nur die Kranken im eigenen Land zu heilen, und was heißt schon ‚eigenes Land’, wenn man doch vielleicht in einem Team weitab des Herkunftslandes seinen Platz gefunden hat?

Positiv besetzt und immer für entsprechende Schlagzeilen gut ist die internationale Raumstation ISS, ein gemeinsames Projekt der US-amerikanischen NASA, der russischen Raumfahrtagentur Roskosmos, der europäischen Raumfahrtagentur ESA und der Raumfahrtagenturen Kanadas und Japans. Dass es sich trotzdem um dünnes diplomatisches Eis handelt, auf dem da agiert wird, zeigten die durch den Konflikt in der Ostukraine angeheizten Diskussionen über ein Ende des Betriebs der ISS, die aber vorerst beigelegt werden konnten. Außerdem war es nicht möglich China am Aufbau und Betrieb zu beteiligen – aufgrund eines Vetos der USA.
Ein Projekt, dessen bauliche Materialisierung aufgrund der politischen Verstrickungen jahrelang nicht in Gang kam, ist das Fusions-Großforschungsprojekt ITER in Frankreich. Erst ein interner Bericht, der nach außen gelangte, markierte den Wendepunkt. Hier sind die Bauherren die EU, Russland, die USA, China, Japan, Indien und Südkorea. Und natürlich waren es nationale Interessen im Sinne von Auftragsvergaben, die das Unternehmen an den Rande des Scheiterns brachten.

Die schwierige Balance zwischen nationalen Interessen und der Investition in eine friedliche Staatengemeinschaft zu halten, ist die große Herausforderung für alle Beteiligten. Angesichts der besorgniserregenden nationalistischen Strömungen und ebensolcher Regierungspolitik einiger Länder, stehen viele Errungenschaften, die wir schon als selbstverständlich empfanden, wieder auf dem Spiel.

A Driving Force Towards Peace: Scientific Cooperation

Picture: iStock.com/Rawpixel Ltd

Picture: iStock.com/Rawpixel Ltd

Can science build bridges between the nations of the world? This is, at least, the hope behind the idea of ‘science diplomacy’. Science diplomacy refers to both the scientific expertise required by politics and the diplomatic efforts to promote international scientific cooperation. Even if the improvements in international relations achieved through science diplomacy only arise at a secondary stage, this is considered a success on the part of science diplomacy.

Professor Felicitas Pauss, a particle physicist at the ETH Zurich and former Head of International Relations at CERN, is a passionate advocate of large-scale collaborative scientific ventures like CERN. In an interview held in 2010 she said: “We have colleagues from all over the world and this enables me to live out my passion for the fact that scientific language and scientific cooperation go beyond political borders.”

When it comes to a large research facility like CERN, whose CMS project alone involves around 3,000 scientists from 200 institutions in 40 countries, it is entirely accurate to speak of two-way multinational exchange. In addition to the staff working on-site and the permanent member states, the collaboration also involves International Cooperation Agreements and, according to Professor Pauss, these benefit over 10,000 scientists from 70 countries as they can avail of the scientific infrastructure for their research.

The establishment of such a large research facility clearly requires countless political negotiations and diplomatic efforts. “Obtaining a long-term and binding financial commitment from so many countries is a huge challenge. It took over 20 years to progress from the emergence of the initial concept to the start-up of the LHC particle accelerator in 2008,” says Prof Pauss. The ratification of the convention that officially established CERN took place over 60 years ago in 1954.

Live link to CERN with General Director Fabiola Gianotti and colleagues at this year’s LNLM – Steven Chu, David Gross, Takaaki Kajita and Carlo Rubbia participated in the panel discussion of Glimpses Beyond the Standard Model”, chaired by Felicitas Pauss.

After the Second World War, the former enemy states had to re-establish scientific relations which had been broken off due to the conflict – and Germany had to overcome its complete isolation from the global scientific community.

In the USA, John F. Kennedy established a corresponding cooperation agreement with Japan in 1961. In Germany, two doctors based in Lindau, Dr. Franz Karl Hein and Prof. Gustav Parade, had the idea of bringing Nobel laureates in the scientific disciplines of chemistry, physics and medicine together in 1951, and found an ideal sponsor and host for their project in Count Lennart Bernadotte. The idea was developed further over the years: the invitation to young scientists from all over the world to apply to participate in the Lindau Meetings was added to the mix and made a major contribution to fulfilling the motto of the event to “Educate, Inspire, Connect”. The impetus generated by the meetings was in evidence last year, in particular, when the majority of the Nobel laureates in attendance signed the Mainau Declaration 2015 on Climate Change.

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Nobel Laureate Kailash Satyarthi, here signing the Mainau Declaration on Climate Change, recently published an articel against nuclear weapons. Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

The German Academic Exchange Service (Deutscher Akademischer Austauschdienst, DAAD) was also re-established in the early 1950s in Bonn. The DAAD is now one of the biggest organisations for the promotion of the international exchange of academics in the world. It also implements the European Union’s very popular Erasmus Programme. This international understanding at academic level broadened Germany’s horizons and improved its scientific performance. The same applies to its partner organisations throughout the world.

Science diplomacy is an established concept in the USA and is used as the calling card for a modern policy approach. The concept became particularly popular under Barack Obama’s leadership. Obama’s efforts to bring the American scientific community and scientists from predominantly Muslim countries closer through scientific and technical innovations during the incipient Arab Spring are an example of this. Given the current political situation, it is painful to look back on the hopes and expectations that prevailed at the time. Nobel laureate Peter Agre gave an account of the efforts made by the US government in an article, while also warning that the efforts would have to be further intensified.

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Photo: Ch. Flemming/Lindau Nobel Laureate Meetings

Irrespective of the particular context in which it was expressed, Agre’s description of science diplomacy, as he understands it, is timeless:

“Science is a wide-ranging effort that naturally crosses borders, and so scientist-to-scientist collaboration can promote goodwill at the grass roots.”

And the argument for science diplomacy, irrespective of current political events, is irrefutable – complex global problems and conflicts can only be resolved through a global approach, and science is predestined to play a role in this process. No medical research team aims to heal only the sick within its own country. And what does ‘own country’ mean, anyway, when the scientists involved may well have found a place on a team located very far away from their countries of origin?

The International Space Station ISS , a joint project between the American space organisation NASA, the Russian space agency Roskosmos, the European Space Agency ESA, and the Canadian and Japanese space agencies is considered a positive venture and is always a good source of corresponding headlines. The fact that it nonetheless rests on thin diplomatic ice is demonstrated by the discussion about ending the operation of the ISS, which was fuelled by the conflict in eastern Ukraine but has been successfully defused for the time being. Moreover, it was not possible for China to participate in the development and operation of the station due to the USA’s veto.

The large fusion experiment ITER in France is an example of a project whose physical materialization was hindered for years due to political machinations. The turning point was achieved thanks to a leaked internal report. The clients involved in the construction of this project included the EU, Russia, the USA, China, Japan, India and South Korea. And, of course, it was national interests in relation to the awarding of contracts for the construction work that brought the venture to the brink of collapse.

The difficulty posed by balancing national interests and the investment in a peaceful community of states is the great challenge facing all participants. In view of the worrying nationalist movements and government policy in some countries today, many countries and many achievements which we already took for granted, are now under threat again.

A Beautiful Quest: The Search for a Unified Theory

The search for a single overarching theory of nature that describes all the fundamental physical forces and particles has been the major thrust of modern physics. Are we about to reach this elusive goal, or is it turning into a quixotic quest that needs to be abandoned?

 

Correspondence to:

Jalees Rehman, MD

Department of Medicine and Department of Pharmacology

University of Illinois at Chicago

Email: jalees.rehman[at]gmail[dot]com

 

I shall let the little I have learnt come to light in order that someone better than I may guess the truth, and his work may demonstrate my error. At this I shall rejoice, and also because I was nevertheless a cause whereby such a truth came to light.

Albrecht Dürer (1471-1528) – Schriftlicher Nachlaß

 

How will the 20th century be remembered by the historians in the year 2525 – if man is still alive? Will the annals of history label it as the century of human suffering, in light of the millions of lives that were prematurely claimed by two world wars, countless cases of large-scale atrocities, ethnic cleansing and genocide? Or perhaps as the century in which hygiene, vaccinations and antibiotics helped save millions of lives, subjugated colonies gained independence from their oppressors and in which the majority of countries finally recognized women as full citizens, granting them the right to vote and reproductive control over their own bodies?

Considering that the 20th century ended less than two decades ago, any attempt to ascertain what will be deemed significant in the coming centuries would be pure speculation. Nevertheless, when we reflect on what we believe most important about centuries past, it becomes rather obvious what aspects of history leave a long-lasting imprint on the collective consciousness of subsequent generations: expressions of human ingenuity. In school, we may have memorized the dates of when wars started and ended, but we are enthralled by the beauty and insights emanating from the great works of art, music, literature, philosophy and science of centuries past. Testaments to human ingenuity, tenacity and the pursuit of beauty and justice include the development of vaccines and antibiotics, abandoning colonialism and granting equality to women. But there is another, far less known front-runner for the most important intellectual accomplishment in the 20th century: The Standard Model. It is also a shoo-in for the “Most Understated-Name-Ever Award.” What is the Standard Model, and why is it a pinnacle of human achievement?

The Standard Model is to date the most comprehensive and experimentally validated theory of the fundamental physical forces and elementary particles in nature. It unifies three core physical forces, the electromagnetic force, the strong force and the weak force, and describes fermions – elementary “substance” particles, such as quarks, electrons and neutrinos – as well as bosons – elementary “force” particles, such as photons, gluons and the Higgs boson. As such, the Standard Model allows us to understand the very nature of energy and matter and provides a framework for understanding the universe. The Standard Model was finalized in the 1970s, but it is built on some of the conceptual revolutions in physics at the beginning of the 20th century, such as quantum mechanics and the theory of special relativity which challenged traditional views of determinism, time and space.

While there have been many important scientific developments in the past century, the Standard Model stands out as a prime example of how theoretical science and experimental science work like intercalating cogwheels, propelling each other forward. The theoretical framework was formulated in the 1970s based on prior experimental data, but it made definitive predictions regarding the existence of particles that had never been observed. And each subsequent decade, experiments undertaken to test its validity confirmed its predictions, such as the discovery of the top quark in 1995, the tau neutrino in 2000 and the Higgs boson in 2012/2013. This unprecedented pace of experimental testing and theoretical formulation of the Standard Model could only be achieved by the collaborative efforts of thousands of physicists, transcending boundaries of nationality, gender and ideology and united by their common goal of uncovering the fundamental laws of nature.

The Standard Model is part of a grander quest in physics to develop unified theories with the ultimate goal to have one final Unified Theory, which is sometimes referred to as the “Theory of Everything” – quite a baptismal contrast to the humility exuded by the name “Standard Model.”

 

Photo: iStock.com/Courtney Keating

Quixotic or not, mankind’s quest to find a unified theory governing all the innermost principles of nature certainly yielded a greater understanding of the beauty of our world along the way. Photo: iStock.com/Courtney Keating

George Smoot is Professor of Physics at the University of California, Berkeley, the Founding Director of the Berkeley Center for Cosmological Physics and received the Nobel Prize for Physics in 2006 for his work on cosmic microwave background radiation. Smoot suggests that the unification of forces and concepts has been the major thrust of modern physics. This applies to the conceptual combining of mechanical classical physics and statistics to produce statistical mechanics, which formed the foundations of thermodynamics. The Standard Model also arose from a tradition of stepwise unifications, such as the classic unification of electricity and magnetism into electromagnetism by Maxwell in the 19th century. That was followed by the development of a theory that unified weak and electromagnetic forces in the second half of the 20th century and the Standard Model, which also included the strong force.

“There has long been a goal to include Gravity and make a more unified theory, which is sometimes referred to the Theory of Everything even though we now know that there must be or likely are some additional forces such as dark energy,” says Smoot.

Despite its successes, the Standard Model also has its limitations, and among its most important limitations is that it does not include gravity – the fourth of the fundamental physical forces – and that it also does not account for dark matter and dark energy, hypothesized forms of energy and matter that are thought to form the bulk of mass and energy in the universe and that explain key cosmological phenomena, such as the expansion of the universe.

 

George during his 2010 lecture at Lindau. Photo: Ch. Flemming/Lindau Nobel Laureate Meeting

George during his 2010 lecture at Lindau. Photo: Ch. Flemming/Lindau Nobel Laureate Meeting

Gravity is currently best described by the Theory of General Relativity, developed by Albert Einstein in the first half of the 20th century, which replaced Newton’s theory of gravity. Like the Standard Model, the Theory of General Relativity has been repeatedly tested and confirmed by experimental observations. It is also one of the most beautiful theories in physics. Steven Weinberg, who received the 1979 Nobel Prize in Physics together with Abdus Salaam and Sheldon Lee Glashow for their pioneering work in the development of the Standard Model, has described the beauty of General Relativity in his book Dreams of a Final Theory. Weinberg admits that one cannot precisely define what constitutes “beauty” in physics, but one key characteristic of a beautiful scientific theory is the simplicity of the underlying concepts. Despite the appearance of greater mathematical complexity in Einstein’s theory, Weinberg considers it more beautiful than Newton’s theory because the Einsteinian approach rests on one elegant and simple principle – the equivalence of gravitation and inertia. A second characteristic for beautiful scientific theories is inevitability. Every major aspect of a beautiful theory appears so perfect that it cannot be tweaked or improved on. Any attempt to significantly modify Einstein’s Theory of General Relativity would undermine its fundamental concepts, just like any attempts to move around parts of Raphael’s Holy Family would weaken the whole painting.

According to Weinberg, the final unified theory would not only comprise all fundamental physical forces but it would also embody beauty. This quest for unity and beauty may seem like an anachronism, perhaps even quixotic, considering that even after decades of tireless efforts by the world’s most brilliant physicists, it has not yet been possible to combine General Relativity and the Standard Model into a beautiful Unified Theory. Does this mean that it is time to abandon this quest and just accept the fact that there may be multiple distinct theories, such as General Relativity and the Standard Model that are all independently valid? Not according to many of the world’s leading physicists.

Smoot explains, “There are deep underlying reasons and symmetries that make us think that the unification of the forces is not only a beautiful and powerful construct but also necessary to the completeness of Physics.”

 

Steven Weinberg (right) with students at the Lindau Meeting in 1982. Photo: Archive Böcher/Lindau Nobel Laureate Meetings

Steven Weinberg (right) with students at the Lindau Meeting in 1982. Photo: Archive Böcher/Lindau Nobel Laureate Meetings

sixnamesofbeauty

Source: Crispin Sartwell “Six Names of Beauty”

How does the concept of beauty in physics relate to other forms of beauty that we experience around us? Beauty in art, music, or literature often manifests itself as a desire of the audience to keep looking, listening, or reading. This form of beauty evokes a desire or longing in its audience. The philosopher Crispin Sartwell explored words for “beauty” used in six different languages, thus illuminating various aspects of beauty across cultures and languages. In his book Six Names of Beauty, Sartwell offers us the following words used to describe beauty and their approximate translations into English:

None of these words is necessarily the exclusive word used for beauty in any given language but it suggests that certain languages can emphasize distinct facets of beauty. A multi-lingual perspective may also help us discover our own deeper concepts of beauty as we find parallel concepts in other languages that may not be readily apparent. A native English speaker, for example, can easily relate “beauty” to light, harmony, wholeness and nobility but a deeper meditation may reveal that humility and imperfection are also aspects of beauty.

A concept of beauty which encompasses beauty, yapha, sundara, to kalon, wabi-sabi, hozho and the thousands of additional words used in other languages make it easier to understand that beauty in physics and beauty in art may be quite similar. The Unified Theory will represent a form of wholeness or completeness of the fundamental laws of physics, it will describe the harmony and balance between particles and forces, it will be expressed in the simplest possible terms, it is an ideal that scientists are striving towards and they hope that it will illuminate the fundamental mysteries of physics.

Frank Wilczek is the Herman Feshbach Professor of Physics at the Massachusetts Institute of Technology and received the 2004 Nobel Prize in Physics together with David Gross and David Politzer for their seminal work on the nature of the strong force. In addition to his work as one of the world’s leading theoretical physicists, Wilczek is actively engaged in communicating the core concepts of physics to a non-specialist audience via his website and several books. His most recent book, A Beautiful Question, is a profound exploration of the physics, aesthetics and philosophy surrounding the search for the Unified Theory. He also replaces the title Standard Model with the more appropriate term Core Theory. He avoids the hyperbolic and misleading expression “Theory of Everything” and instead points out that the Core Theory is a perpetual work in progress, continuously striving for greater beauty and unity. He is optimistic that in the near-future, the Core Theory will be able to accommodate the electromagnetic, weak, strong and gravitational forces as well as describe dark energy and dark matter.

One of the routes that Wilczek maps out for the evolution of the Core Theory is supersymmetry, the idea that when “force” particles (bosons) move into quantum dimensions, they become “substance” particles (fermions) and vice versa. This expanded (“super”) symmetry between bosons and fermions posits the existence of novel superpartner particles. Quarks and leptons, for example, would have squarks and sleptons as their hypothetical boson superpartners. Gauginos, on the other hand, would be hypothetical fermion superpartners of gauge bosons. The elegance and beauty of this model is that it would offer the possibility of including gravity in a possible unified Core Theory that includes hypothetical gravitons and their equally hypothetical superpartner gravitinos. One of the challenges of uniting all four forces is that gravity is by far the weakest of all the physical forces. But supersymmetry and the presence of the hypothesized superpartners, suggests that there exist certain high energy levels at which the different forces begin to approximate each other. Wilczek states that this would still not represent the complete unification of the forces, but it could be a major first step. However, Wilczek also clearly explains that the experimental evidence for supersymmetry and the hypothesized superpartner particles is lacking. The Large Hadron Collider (LHC) at CERN in Geneva that experimentally validated the Higgs boson in 2012/2013 may need to significantly ramp up its energy to generate these particles.

 

The search Supersymmetry is still going on at CERN. Photo: D. Dominguez/CERN

The search Supersymmetry is still going on at CERN. Photo: D. Dominguez/CERN

Another path toward a Unified Theory that is being actively pursued by theoretical physicists is string theory, also referred to as superstring theory and M-theory in its later iterations. A brief introduction to the concepts of string theory can be found in The Grand Design by Stephen Hawking and Leonard Mlodinow, and a far more comprehensive one is in The Fabric of the Cosmos by Brian Greene. Through string theory, these physicists are also able to achieve some degree of a unification of the fundamental forces on a theoretical level, but they invoke the presence of nine spatial dimensions (string theory) or even ten spatial dimensions (M-theory) in addition to one time dimension. Proponents of string theory view it as a major conceptual revolution of our concept of time and space, likening it to the paradigm shifts in our concepts of space, time and causality that were triggered by the theories of relativity and quantum mechanics one century ago.

However, there is one key difference that sets apart string theory from the theories of relativity and quantum mechanics. Even though the latter changed our view of the world, they did not fundamentally alter how we pursue science. Successful science always combines theories with empirically-testable hypotheses and predictions. Quantum mechanics, the special theory of relativity, the general theory of relativity and the Standard Model have all been validated by experiments. Supersymmetry has not yet been experimentally validated, but it makes claims that could be eventually be tested and confirmed if the proposed superpartner particles are found at the LHC. However, it is difficult to even conceive of experiments that could prove the existence of nine or ten spatial dimensions. A string of critical books has recently been published that attack string theory on its lack of clearly defined hypotheses and predictions that would allow for its experimental validations. Farewell to Reality by Jim Baggott, Not Even Wrong by Peter Woit and The Trouble with Physics by Lee Smolin question whether a theory without experimental validation can even be considered scientific or whether it has begun taking on the feature of a religious dogma.

To a certain extent, similar criticisms can also be brought forward against supersymmetry since there is no definitive experimental proof to back it up, just circumstantial evidence as described by Wilczek in A Beautiful Question. One response to critics of supersymmetry is that the proposed superpartner particles are so rare and require such high energy to generate that we may not yet have the necessary technology to even test the theory. The Higgs particle, for example, was predicted by the Standard Model several decades before the LHC was able to confirm its existence. It is therefore quite possible that the LHC will find evidence for supersymmetry in the next years as the energy levels are ramped up. But at what point does one abandon a scientific idea or theory as not validated by experiments, and how long does one continue to test it? And at what point does clinging to ideas that have not or cannot be experimentally validated become non-scientific? The search for the Unified Theory has raised profound questions not only about the nature of matter and energy but also the definition of science and the scientific methodology.

I recently asked Frank Wilczek whether he felt that supersymmetry is still a prime candidate for a Unified Core Theory:

I’m still optimistic about ‘low-energy,’ i.e. accessible, supersymmetry, since the circumstantial case for it is very strong. The Large Hadron Collider (LHC) will have a good shot at it in the next few years. So far they haven’t seen any direct positive evidence, however, which has been disappointing for many people. For a long time, I’ve been worried that the LHC might not have quite enough energy for the job.

Wilczek believes that the current energy levels at the LHC may be able to generate gauginos, the superpartners of gauge bosons, but that the generation of squarks and sleptons may require higher levels of energy. Wilczek agrees that the testability and experimental validation of supersymmetry is essential for it to become part of a Unified Core Theory. For Wilczek, experimental testability is an essential part of a theory’s beauty. A Unified Theory also needs to address other important issues that are not yet resolved by General Relativity and the Standard Model, such as the question of dark matter and dark energy.

Unified Theories’ that do not address these questions in a satisfying way don’t deserve the name. String theory, in particular, falls short. (Frank Wilzek)

Does one need string theory or M-theory to develop a Unified Theory?

Wilczek is convinced we can make important progress at present without string theory or M-theory but cannot rule out that they may prove crucial in the long run. “They have a lot of potential, but they haven’t yet proved themselves to be essential parts of the description of Nature. It’s not clear, at least to me, what problems they’ll solve, or even what they are exactly.”

Wilczek also points out that there are several other exciting questions in physics that will attract the next generation of physicists, some of which he recently outlined in an article “Physics in 100 years.” The search for a Unified Theory, the validation of supersymmetry and understanding dark matter or dark energy will be complemented by great discoveries in gravitational wave astronomy, quantum computation and many other areas of research.

This also relates to an important point made by the Nobel Laureate Robert Laughlin in his book A Different Universe. An excessive focus on identifying the elementary forces and particles brings about a culture of extreme reductionism, assuming that the whole universe can be explained by knowing the building blocks. Taking apart a Lego sculpture and then laying out all the colored Lego bricks in front of us does not really tell us much about the beauty and splendor of the sculpture. Laughlin hopes and predicts that the Age of Reductionism will soon be replaced by an Age of Emergence in which the focus gradually shifts toward understanding how complex structures arise from the fundamental particles and atoms identified during the Age of Reductionism. Just like the simplicity of reductionism, the complexity of emergence also embodies beauty. Instead of heralding the end of physics (as is implied in expressions such as “Theory of Everything”), Unified Theories are just a starting point for the more complex questions in physics.

 

Our ancestors left us awe-inspiring monuments whose grandeur never has been replicated so far. Our own legacy to future generations however, may consist of something more sublte yet fundamental: A profound understanding of the universe's inner workings. Photo: iStock.com/DKart

Our ancestors left us awe-inspiring monuments of never replicated grandeur. Our own legacy to future generations however, may consist of something more subtle yet substantially fundamental: A profound understanding of the universe’s inner workings. Photo: iStock.com/DKart

The evolving Core Theories of physics exemplify the human intellect and spirit and have challenged our perceptions of reality. We often marvel at the splendor of palaces and monuments, but the enduring legacy of any civilization can be found in its ideas. While all the seven wonders of the ancient world have crumbled except for the pyramids of Giza, many of the ideas of ancient scholars have survived, and their magnificence continues to inspire us even after millennia. Even though the great discoveries in physics were often spearheaded by few scientists, they ultimately represent a collaborative effort of several thousands of scientists who worked together to experimentally validate theories and, to a larger extent, also a conjoined effort of all humankind who directly or indirectly contribute to these efforts, perhaps even by allowing public funding to support the heroic struggles.

If we want to establish a legacy of our civilization that truly matters to our future descendants, it will not be achieved by erecting huge monuments but by expanding efforts to find simple and complex beauty in our universe. The past century of basic research in physics has been among the most fruitful periods in the history of any science, but it has also reminded us that we need to invest resources and provide continuing support for it to thrive. The universality of natural laws and the spirit of scientific collaboration across cultural and political boundaries may ultimately serve as a model for a more peaceful human co-existence. In a world that is too often polarized by political and religious ideologies, the search for a unified theory of the fundamental physical forces encapsulates the greater human quest for beauty. We may not always agree on what constitutes beauty but humans in all cultures are united in their longing for beauty. The arduous pursuit of beauty itself embodies beauty and is an opportunity for all humankind to share in the joy of this journey.

 

Searching for SUSY

The author Allison Reinsvold in front of the CMS detector at CERN. Photo: CERN

The author Allison Reinsvold in front of the CMS detector at CERN. Photo: Allison Reinsvold

When talking about my research with friends and family, it is sometimes hard to convince them that I’m not pulling their legs. From “squarks” and “selectrons” to “winos” and “binos”, it must sound like I am making up funny-sounding words to mess with them, but all of these words are actually used to describe particles in the theory of supersymmetry.

Supersymmetry, or SUSY as physicists refer to it, is a beautiful, elegant theory. It proposes that all of the elementary particles we have discovered and describe using the Standard Model—electrons, muons, protons, quarks, and so on—have “superpartners.” These superpartners, or sparticles as they are also called, have all of the same properties as their corresponding Standard Model particles, except for a property known as spin. Spin is an inherent property of elementary particles, and it is an essential ingredient when trying to determine how two particles are going to interact. Particles with integer spin are called bosons, and particles with half-integer spin are fermions. In supersymmetry, every Standard Model boson has a partner fermion and every fermion has a partner boson.

Physicists get excited about the theory of supersymmetry for several reasons. One reason is that it provides possible dark matter candidates. We know dark matter exists, but other than that, not much is known about it. Dark matter makes up approximately 27% of the mass and energy of the universe and only interacts with normal matter gravitationally. This makes it very difficult to study. The lightest supersymmetric particle could be one of the dark matter particles we have been looking for.

Supersymmetry is also exciting because it predicts that at high energies, the electromagnetic, weak and strong nuclear forces become unified. This means that we would only need one force and one coupling constant to describe particle interactions. Even though unification of forces does not have to occur in nature, it would certainly be very beautiful if it did, and is one motivation for searching for supersymmetry.

More practically, supersymmetry is useful because it solves what is known as the “hierarchy problem” in the Standard Model. The Higgs mass receives large quantum contributions from any new physics that might be hiding at high energies. These contributions would tend to make the Higgs mass huge, but we know that the mass of the Higgs boson is only 125 GeV. In supersymmetry, this contradiction disappears, because the large quantum corrections from fermions are canceled by their bosonic superpartners and vice versa. This is an elegant solution to the problem without having to resort to “fine-tuning”, which is the scientist’s way to describe contradictions that cannot be explained unless a number of happy coincidences occur.

There is only one problem with this beautiful theory: none of the supersymmetric particles have been discovered. Not one. We have discovered every particle predicted by the Standard Model, including the elusive Higgs boson, but have no evidence for the existence of sparticles. In my research, I search for signs of SUSY particles hiding among the Standard Model particles.

To look for the legendary SUSY particles, I use the Compact Muon Solenoid, or CMS, detector at the Large Hadron Collider (LHC) at CERN. The LHC is the largest machine in the world. It is 27 kilometers (17 miles) in circumference, and is located at the border of France and Switzerland. At the LHC, protons are collided with a center-of-mass energy of 13 TeV. In other words, the protons at the LHC are traveling at 99.9999990% of the speed of light. Protons collide at a rate of 40 billion collisions per second. At this speed and frequency, physicists like me have the chance to observe processes so rare that they could not happen anywhere else on Earth.

 

The CMS detector at CERN in all it's glory. Photo: CERN/M. Hoch

The CMS detector at CERN in all it’s glory. Photo: CERN/M. Hoch

There are four main detectors at the LHC that physicists use to “see” what is happening in the collisions: CMS, ATLAS, ALICE, and LHCb. I am part of the CMS collaboration. The CMS detector is a 14-ton cylindrical detector. It is 21 meters (23 yards) long and 15 meters (16.4 yards) in diameter. At the center of the detector is the beampipe, where the protons collide. Moving radially outward from the beampipe, the first subdetector is the tracker system. The tracker is made of silicon and has over 9 million microstrips and 66 million pixels that allow us to follow the path of charged particles. By looking at how much the particles curve in the magnetic field, we can calculate the momentum of the particles.

After the tracker, particles pass through the Electromagnetic Calorimeter (ECAL) and the Hadronic Calorimeter (HCAL). The ECAL measures the energy of electrons and photons, and the HCAL measures the energy of hadrons, which are particles such as protons, neutrons, and pions made up of quarks and gluons. After the HCAL is the solenoid magnet (the “S” in CMS). This superconducting magnet produces a 3.8 Tesla magnetic field and is what causes the charged particles to curve as they travel through the tracker. Finally, just outside of the magnet is the muon system (the “M” in CMS) that let’s us measure the momentum of any muons produced in the event.

My work is to analyze the petabytes of data produced by the CMS detector to search for collisions that might have included a SUSY particle. Specifically, I look for events with two photons, several jets, and significant missing energy from escaping SUSY particles. Events such as these can occur in gauge-mediated supersymmetry breaking (GMSB) theories.

The LHC was upgraded from 2013 to 2015 to increase the collision energy from 8 TeV to 13 TeV. With this large jump in energy, and with the 2016 data streaming in, we are poised to make exciting discoveries. Someday soon, winos and binos might be as well known as the Higgs boson or the electron, and convincing friends and family that I’m not making words up will be much easier.

Higgs-Hintergrundinformationen

Ich war anfangs (z.B. hier) eher skeptisch gegenüber dem Rummel, der sich da rund um die CERN-Entdeckung zu entfalten begann. Das Higgs also – na und? Aber inzwischen haben mich die Kollegen mit ihrer Begeisterung angesteckt. Hier in Lindau saßen wir zwar nicht direkt an der CERN-Quelle, aber hatten trotzdem einzigartige Chancen, eine Vielfalt von Einschätzungen der Entdeckung mitzubekommen. Die CERN-Pressekonferenz wurde live in den zentralen Vortragssaal hier in der Inselhalle übertragen; dann gab es eine eigene kleine Pressekonferenz mit Carlo Rubbia, David Gross und Martinus Veltman und eine Podiumsdiskussion mit diesen dreien und George Smoot (moderiert von Felicitas Pauss vom CERN). Hinzu kam die Gelegenheit, mit einigen denjenigen jungen Wissenschaftlern zu sprechen, die an den beiden LHC-Experimenten CMS und ATLAS oder direkt am LHC mitarbeiten. Mein Dank geht außerdem an Albrecht Wagner, der auch bei dem Lindauer Treffen dabei war, und an meinen Lindauer Ko-Blogger Juan García-Bellido für geduldige Antworten auf meine Nachfragen.

Aber ganz von vorn.

Der Beschleuniger: Quantität und Qualität

Es geht, wie sollte es anders sein, um den Large Hadron Collider (LHC) am CERN, der in bester Teilchenbeschleuniger-Tradition Teilchen auf extrem hohe Geschwindigkeiten beschleunigt und sie dann ineinanderknallen lässt. Für die Messungen, um die es jetzt geht, hatte jedes der Protonen, die im LHC aufeinandergejagt werden, eine Energie von 4 TeV (TeV und GeV sind in der Teilchenphysik übliche Energieeinheiten; 1 TeV = 1000 GeV). Das ist rund 4000 Mal mehr Energie als einem Proton zukommt, das einfach nur ruhig in der Gegend herumsitzt. Bei solch hohen (Bewegungs-)Energien flitzen Protonen mit 99,9999945 % der Lichtgeschwindigkeit am Beobachter vorbei.

Energie ist so etwas wie die Quantität, die der Teilchenbeschleuniger liefern muss. Dazu gehört aber auch noch die Qualität der Teilchenstrahlen, die da miteinander zur Kollision gebracht werden. Im LHC laufen Grüppchen (“bunches”) von Protonen in zwei ringförmig zusammengebogenen Vakuumrohren umlaufen – im einen Ring gegen, im anderen im Uhrzeigersinn. Um die Vakuumrohre sind Magnete angeordnet, die die Protonen auf ihrer Bahn und die Grüppchen schön beisammen halten. Dann gibt es noch (elektrische) Beschleunigerstrecken, die den Teilchen den letzten Geschwindigkeits-Kick geben und sie auf der gewünschten Endgeschwindigkeit halten. Größenordnung der Anzahl der Protonengruppen in jedem Ringrohr: 1000. An mehreren “Wechselwirkungspunkten” werden die Protonengruppen dann aufeinander zu gelenkt. Das schöne an der ringförmigen Geometrie: Wenn’s beim einen Mal nicht klappt, klappt’s vielleicht beim nächsten. Oder dem danach.

Es ist gar nicht so einfach, Protonengrüppchen so gezielt gegeneinander zu lenken, dass es zu Kollisionen kommt. Man muss die Protonenstrahlen dazu ziemlich gut fokussieren und aufeinander zielen. Die Teilchenphysiker betreiben einen Riesenaufwand, um möglichst gute kollidierende Teilchenstrahlen zu erzeugen, sprich: Strahlen, von deren Protonen möglichst viele miteinander kollidieren. Diese Strahlqualität-ausgedrückt-durch-hohe-Kollisionschancen heißt “Luminosität”, und hohe Luminosität ist der zweite Umstand, dem wir die neuen Ergebnisse verdanken.

Was ist eigentlich ein Teilchen?

Alltagsgegenstände sind sehr kompliziert. Elementarteilchen sind dagegen sehr, sehr einfach und haben nur einige wenige Unterscheidungsmerkmale. Die Ruhemasse ist eines davon (warum “Ruhemasse”? Weil Masse aufgefasst als Maß dafür, wie schwierig es ist, ein Teilchen abzulenken, mit zunehmender Geschwindigkeit zunimmt). Dann ist da noch der Spin eines Teilchens, und der ist deutlich unanschaulicher. Oft wird das Bild bemüht, Teilchen würden von Natur aus unterschiedlich schnell um ihre eigene Achse rotieren, und der Spin gebe an, wie schnell. Das hat ein paar richtige Elemente, führt aber auch in die Irre. Ich möchte an dieser Stelle nicht detailliert darauf eingehen, für uns soll hier reichen: Spin ist noch so eine Kennzahl (ein Vielfaches von 1/2), anhand derer man Elementarteilchen unterscheiden kann.

Eine weitere Kennzahl ist elektrische Ladung: In den üblichen Einheiten der Teilchenphysik haben Elektronen die Ladung -1, Quarks je nach Sorte +2/3 oder -1/3. Es gibt noch eine Reihe weiterer Kennzahlen – zum einen Ladungen, die direkt mit den zwischen den Teilchen wirkenden Kräften zusammenhängen; allgemeiner “Quantenzahlen”, bei denen es sich wiederum typischer Weise um einfache, ganze Zahlen (allenfalls noch einfache Bruchzahlen) handelt.

Hat man Spin, Masse, Ladungen und Quantenzahlen eines Teilchens angegeben, hat man das Teilchen komplett definiert – na ja, fast: beim Higgs kommt als Information noch hinzu, dass es mit Elementarteilchen, die eine Ruhemasse ungleich Null haben, in ganz spezifischer Weise in Wechselwirkung tritt. Aber dazu später.

Umgekehrt gilt: Will man ein Teilchen identifizieren, muss man anhand von Teilchenreaktionen (auch dazu unten mehr) nachprüfen, dass es tatsächlich all die das Teilchen definierenden Kennzahlenwerte (und beim Higgs noch die erwähnte spezielle Wechselwirkung) besitzt. Hat man das getan, ist man fertig und kann eindeutig entscheiden, ob es sich z.B. um das Higgs oder um ein Teilchen mit anderen Eigenschaften handelt.

Die Theorie: Das hier kann sie ganz gut

Die erste gute Nachricht ist, dass Physiker über eine Theorie verfügen, die das Verhalten von Elementarteilchen sehr, sehr genau beschreibt: das Standardmodell der Elementarteilchenphysik (kurz “das Standardmodell”, wo keine Verwechslungsgefahr z.B. mit dem Standardmodell der Kosmologie besteht). Die zweite gute Nachricht ist, dass es für einige wichtige Situationen zwar verdammt schwierig ist, sie im Rahmen des Standardmodells zu beschreiben – Zustände mit aneinander gebundenen Teilchen gehören dazu, z.B. das Proton (drei Quarks) oder das Wasserstoffatom (Proton und Elektron). Aber Situationen wie in Teilchenbeschleunigern, bei denen Teilchen aufeinander zu und sich dabei in einigen Fällen gegenseitig beeinflussen, kann man damit recht gut beschreiben. Das ist genau was benötigt wird, um zu beschreiben, was in Teilchenbeschleunigern passiert.

Vor allem kann man mit Hilfe der Theorie die Wahrscheinlichkeiten dafür berechnen, dass beim aneinander-Vorbeiflug der Teilchen bestimmte Teilchenreaktionen stattfinden. Kann man angeben, wie genau die Teilchen aneinander vorbeifliegen (welche Teilchen? wie schnell bzw. bei welcher Energie? wie relativ zueinander orientiert?), dann gibt die Theorie für jede der möglichen Reaktionen eine Antwort auf die Frage, wie häufig die Reaktion stattfindet.

Teilchenreaktionen

Für die grundlegenden Prozesse, die ablaufen, wenn Teilchen bei Kollisionen in Teilchenbeschleunigern miteinander wechselwirken, gibt es ein einfaches Beschreibungsschema: Das einzige, was dort passiert, ist, dass diese Teilchen bestimmte andere Teilchen aussenden oder absorbieren, und sich dabei je nach Reaktion selbst in andere Teilchen umwandeln oder eben nicht.

Dafür, welche Teilchen welche anderen Teilchen aussenden oder absorbieren können, gibt es im Standardmodell strenge Regeln. Die Ladungen spielen dabei eine Doppelrolle. Zum einen sind sie, genau so wie die anderen Quantenzahlen, für die Buchhaltung wichtig. Jede Teilchenreaktion hat ein davor und ein danach. Wenn man vor der Reaktion eine bestimmte elektrische Gesamtladung hat, muss man nach der Reaktion insgesamt die gleiche Ladung haben. Hat man zum Beispiel vorher ein Teilchen mit Ladung +1 und eines mit Ladung -1, dann ist die Gesamtladung Null. Bei einer Reaktion dürfen dann zum Beispiel am Ende zwei Teilchen mit Ladung +1 und zwei mit Ladung -1 herauskommen (da +2 und -2 zusammen auch Null ergeben), aber z.B. nicht zwei Teilchen mit Ladung +1 und nur eines mit Ladung -1 (da +2 und -1 zusammen 1 ergeben, nicht 0). 

Ähnliche Regeln (“Erhaltungssätze”) gibt es für die anderen Ladungen und Quantenzahlen. Wobei die Theorie explizit einige Ausnahmen eingebaut hat: einige Quantenzahlen bleiben zwar bei bestimmten Sorten von Reaktion erhalten, bei bestimmten anderen Sorten aber nicht.

Die Ladungen sagen einem auch, wie stark Teilchen vermittels der zugehörigen Kraft wechselwirken. Die elektrische Ladung beispielsweise sagt einem, wie stark das Teilchen andere Teilchen vermittels der elektromagnetischen Kraft anzieht oder abstößt.

Viele der Teilchen, die in Beschleunigerexperimenten entstehen, sind sehr kurzlebig. Sie zerfallen innerhalb von Sekundenbruchteilen in andere Teilchen. Die Physiker stehen daher bei solchen Experimenten typischerweise vor einem Puzzle, bei denen sie aus den tatsächlich im Detektor nachgewiesenen Teilchen zu rekonstruieren versuchen, was dort in der Zwischenzeit passiert ist. Dabei nutzen sie die erwähnten Regeln: Die elektrische Gesamtladung der nachgewiesenen Teilchen beispielsweise muss ja auch bei den Zerfallsreaktionen erhalten geblieben sein. Falls ich am Ende eine Gesamtladung +1 habe, weiss ich, dass es keinen Zwischenzustand geben kann, in dem nur ein einziges, elektrisch neutrales Teilchen (elektrische Ladung 0) anwesend war. Ähnlich geht man für die anderen Ladungen und Quantenzahlen, die Gesamtenergie und den Gesamtimpuls vor.

Bei der Higgs-Suche geht es genau um solche Reaktionen von Teilchenreaktionen und um die Frage, ob da zwischendurch mal ein (sehr kurzlebiges) Higgs-Teilchen anwesend war. Insgesamt ist das, was da passiert, typischer Weise sehr kompliziert. Hier ist eines der Kandidatenereignisse für den Nachweis des Teilchens, das das Higgs sein könnte (Quelle: ATLAS-Experiment). Jede der Linien, die da im mittleren Bereich durcheinanderlaufen, entspricht einem bei der Teilchenreaktion entstandenen Teilchen:

alt

Da ist viel Müll dabei (sprich: vieles, was an Reaktionen so nebenher passiert und nichts mit der eigentlich interessanten Nachweisreaktion zu tun hat). Die interessanten Reaktionen herauszupräparieren ist ein Haufen Arbeit. Zu Teilaspekten der Auswertung bestimmter Reaktionen werden ganze Doktorarbeiten verfasst, ganze Postdoc-Forschungsstellen ausgeschrieben.

Teilchenreaktionen: Wahrscheinlichkeiten

Bei der Beschreibung von Teilchenreaktionen spielen Wahrscheinlichkeiten eine Schlüsselrolle. Man kann bei solchen Reaktionen nicht konkret vorhersagen, was passiert, aber man kann die Wahrscheinlichkeiten für die verschiedenen möglichen Abläufe angeben (die Quantentheorie lässt grüßen). Diese Wahrscheinlichkeiten sind typischerweise energieabhängig, und eine typische Vorhersage lautet dann, dass es bei einer gegebenen Energie E eine Wahrscheinlichkeit X gibt, dass Reaktion A abläuft, eine Wahrscheinlichkeit Y für Reaktion B, und so weiter. 

Hat man solche Vorhersagen abgeleitet, kann man seine Beschleunigerexperimente durchführen und Häufigkeiten bestimmter Teilchenreaktionen z.B. vom Typ A (“A-Ereignisse”) feststellen, die Häufigkeiten von B-Ereignissen und von allen anderen möglichen Arten von Ereignis.

Wenn eine Reaktion sehr selten ist, muss man viele, viele Teilchenzusammenstöße durchführen, um hinreichend viele Reaktionen dieses Typs zu sehen. Eine Möglichkeit, dies zu tun, besteht natürlich einfach darin, den Beschleuniger sehr lange laufen zu lassen. Die andere Möglichkeit ist, die Qualität (Luminosität, siehe oben) der Teilchenstrahlen zu verbessern, damit es bei jedem Umlauf zu möglichst vielen Teilchenzusammenstößen kommt.

Teilchenreaktionen: Energien

Wie bereits erwähnt, hängen die Reaktionswahrscheinlichkeiten von der Energie ab. Bei einigen Energien gibt es vergleichsweise wenig Reaktionen – dort fliegen die Teilchen im wesentlichen aneinander vorbei, ohne, dass etwas passiert. Bei anderen Energien finden deutlich mehr Wechselwirkungen statt.

Wichtig ist dabei die Masse der Teilchen, die bei der Reaktion entstehen. Einstein hat uns beigebracht, dass auch (Ruhe-)Masse eine Form der Energie ist. Bei der teilchenphysikalischen Buchhaltung betrachtet man Masse und Energie daher von vornherein nicht getrennt. Man betrachtet die Gesamtenergie: Ruhemassen, Bewegungsenergie und weitere Energieformen zusammen.

Haben wir bei einer gegebenen Kollision eine bestimmte Menge Energie zur Verfügung, dann können am Ende niemals Teilchen entstehen, deren Ruhemasse größer ist als diese Energie! (Wer sich bei solcher Rede über die unterschiedlichen Einheiten grämt, ersetzt bitte jede Erwähnung des Wortes Masse durch “Masse mal Quadrat der Lichtgeschwindigkeit”).

Umgekehrt gilt: Sobald die zur Verfügung stehende Energie Werte erreicht, bei denen ein bestimmtes neues Teilchen erzeugt werden kann, nimmt die Reaktionswahrscheinlichkeit deutlich zu. Hier ist eine Grafik, die Felicitas Pauss vom CERN bei der Diskussionsrunde in Lindau am Mittwoch gezeigt hat.alt Die Grafik fasst Daten des CMS-Experiments zusammen – eines der beiden Teilchendetektoren, deren Ergebnisse zum vielleicht-Higgs am Mittwoch bekannt gegeben wurden. Auf der x-Achse ist dabei die Energie aufgetragen, die man für eine bestimmte Reaktion misst, bei der zwei Photonen (Lichtteilchen, in diesem Falle: sehr hoch energetische Lichtteilchen) entstehen – das wiederum ist ein Maß für die Energie, die bei dieser bestimmten Kollision im Spiel war. Auf der y-Achse ist, vereinfacht gesagt, die Anzahl von Reaktionen (“Ereignissen” oder Events) aufgetragen, die man bei der betreffenden Energie gemessen hat. Rund um den Energiewert 125  GeV (wobei GeV eine in der Teilchenphysik übliche Energieeinheit ist) ist ein kleiner Buckel. Das ist die Art und Weise, wie sich ein neues Teilchen verrät, und sagt auch etwas über die Masse des Teilchens aus: Die Masse beträgt nämlich ungefähr 125 GeV. Bei 125 GeV gibt es, das ist in der Grafik klar zu sehen, mehr Ereignisse als dem allgemeinen Kurvenverlauf nach zu erwarten; dort sind offenbar Reaktionen im Spiel, bei denen Teilchen genau dieser Masse produziert werden.

Ähnliche Ereignisse – Buckel in Häufigkeitskurven – gibt es für andere Teilchenreaktionen, nach denen das CMS gesucht hat, und unabhängig davon für all diese Reaktionen auch von ATLAS, dem anderen LHC-Experiment, das an den neu verkündeten Ergebnissen beteiligt war. Solche Buckel sind die sachdienlichen Hinweise, um die es bei der Higgs-Suche geht.

Teilchen können auch zu Reaktionswahrscheinlichkeiten bei Energien beitragen, die deutlich geringer sind als ihre Masse (diese Beiträge gehören dann zu den sogenannten “Strahlungskorrekturen”). Auf diese Weise, nämlich durch Präzisionsmessungen, bei denen sich Higgs-Beiträge je nach Masse des Higgs-Teilchens mehr oder weniger eingemischt hätten, konnte der Vorgänger des LHC, der Elektron-Positron-Beschleunigerring LEP, bereits zeigen , dass die Higgs-Masse unterhalb von rund 152 GeV liegen muss.

Reaktionen und Energien: Ein paar weitere Anmerkungen

Wenn man einfach nur nach den Energiewerten geht, könnte man stutzig werden. Liegen die Kollisionsenergien beim LHC nicht viel höher als 125 GeV? Die vorangehenden und die jetzt bekannt gegebenen Messungen, bei denen sich Spuren eines neuen Teilchens zeigten, lagen bei LHC-Energien von 7 bzw. 8 TeV (also 3,5 TeV bzw. 4 TeV pro Proton), und das sind 7000 bzw. 8000 GeV.

Warum so hohe Energien? Warum ist das Higgs nicht schon längst vorher erzeugt worden? Ein wichtiger Grund ist, dass die genannte Energie sich eben auf die beteiligten Protonen bezieht, und die sind zusammengesetzte Teilchen: sie bestehen aus Quarks (drei, die ihre Eigenschaften definieren sowie viele Quark-Antiquark-Paare die im Protoninneren immer mal wieder in Erscheinung treten und wieder verschwinden) und “Kitt-Teilchen”, den Gluonen, die diese Quarks zusammenhalten und zu einem Proton zusammenbinden. Die “Elementarkollisionen” im Beschleuniger sind die Kollisionen zwischen je einem Proton-Bestandteil des einen Protons und einem Bestandteil des zweiten Protons. Jedes der Bestandteile wird aber nur einen Bruchteil der Gesamtenergie mit sich tragen; dieser Bruchteil ist die Energie, die zur Erzeugung eines neuen Teilchens wie des Higgs zur Verfügung steht.

Um genaueres zu sehen, muss man wirklich in die Details gehen und schauen, bei welchen Energien die Higgs-Reaktionen wie häufig werden und, genau so wichtig: Wie häufig die ganzen (und viel, viel zahlreicheren!) Reaktionen, die nichts mit dem Higgs zu tun haben, bei den betreffenden Energien sind. Gehen die Higgs-Reaktionen im Rauschen der anderen Reaktionen unter, hat man ja auch nichts gewonnen. Bei solcher Betrachtung zeigt sich dann tatsächlich, dass man mit einem Beschleuniger wie dem LHC zu derart hohen Energien gehen muss, um eine gute Nachweischance zu haben. Es zeigt sich sogar, dass der Übergang von 7 zu 8 TeV einen beachtlichen Unterschied gemacht hat!

Was sagen die Sigmas?

Wann immer man Texte über die Entdeckung liest, die ins Detail gehen, kommt der griechische Buchstage (Klein-)Sigma ins Spiel. Was hat es damit auf sich?

Am einfachsten ist es, den Hintergrund dieser Schreibweise beiseite zu lassen (und sich insbesondere nicht den Wikipedia-Artikel Standardabweichung anzusehen!) sondern die Sigmas einfach als Kurzschrift für bestimmte Wahrscheinlichkeiten anzusehen.

Konkret geht es dabei um die Wahrscheinlichkeit, dass eine Besonderheit, die man in seinen Daten zu sehen glaubt (wie den Buckel in der oben gezeigte Kurve) gar nicht auf einen zusätzlichen Effekt (wie die Anwesenheit eines neuen Teilchens) zurückgeht, sondern schlicht auf statistische Fluktuationen. Fast alles, was man in der Physik misst, ist mit Messfehlern behaftet (die einzige Ausnahme, die mir spontan einfällt, sind einfache, diskrete Zählvorgänge). “Fehler” ist dabei irreführend. Es geht um Dinge, die man gar nicht vermeiden kann – und es geht mitnichten darum, dass der Experimentator da irgendetwas falsch macht. Man kann ganz einfach nie alle Störquellen und Fehlerquellen kontrollieren – Detektoren sehen manchmal etwas, was gar nicht da ist; die Elektronik der Auswertungsapparaturen erzeugt ein paar kleine, nicht durch das Experiment hervorgerufene Signale, und eine Vielzahl derlei Kleinzeugs mehr. Diese vielen kleinen Fehlerquellen kann man nie alle kontrollieren oder gar eliminieren, und das führt dazu, dass man bei der Wiederholung derselben Messung nie ganz genau den gleichen Messwert bekommt, sondern dass die Messwerte leicht schwanken werden. Typisch für die kleinen Fehler, um die es hier geht, ist dabei, dass einige davon den Messwert etwas kleiner erscheinen lassen werden, als er in Wirklichkeit ist, andere etwas größer – es gibt keine bevorzugte Richtung, sondern nur die Summe von vielen zufälligen Effekten, die keine der beiden Richtungen (größerer oder kleinerer gemessenen Wert) bevorzugen.

Die Größe dieser “statistischen Schwankungen”, die sich aus der Summe der unzähligen winzigen Effekte ergeben, lässt sich aus den Daten ablesen – man merkt ja, wieweit ein Messwert, der eigentlich immer gleich sein sollte, einmal ein bisschen größer, dann wieder etwas kleiner ist. Ist die Größe der Schwankungen bestimmt, kann man die Wahrscheinlichkeit ausrechnen, dass Schwankungen dieser Größe einem einen physikalischen Effekt vorgaukeln – z.B. das Vorhandensein des schon erwähnten Buckels auf der Kurve. Diese Wahrscheinlichkeit wird durch die Sigmas ausgedrückt, wobei sich die Sigma-Werte wie folgt in die üblichere Notation von Wahrscheinlichkeiten (als Werte zwischen 0 und 1) übersetzen lassen:

Sigma-Niveau Wahrscheinlichkeit
1 Sigma 31,7 %
2 Sigma 4,6 %
3 Sigma 0,3 %
4 Sigma 0,006 %
5 Sigma 0,00006%

Wenn Physiker also so etwas sagen wie “der Nachweis gelang bei einem Niveau von 5 Sigma”, dann heißt das übersetzt “die Wahrscheinlichkeit, dass das, was wir da sehen, nicht Konsequenz eines systematischen Effekts ist, sondern stattdessen durch statistische Fluktuationen vorgegaukelt wird, ist 1 zu 1,7 Millionen, also 0,00006%”.

Es hat sich in der Wissenschaft eingebürgert, einen bestimmten Effekt als nachgewiesen zu betrachten, wenn ein bestimmtes Sigma-Niveau (oder “Signifikanz-Niveau”) erreicht ist. Teilchenphysiker fordern beim Nachweis z.B. eines neuen Teilchens üblicherweise 5 Sigma. Astronomen sind oft bereits mit 3 Sigma glücklich. In anderen Wissenschaften findet man typischer Weise Signifikanzniveaus zwischen 2 Sigma (“statistisch signifikant”) und 3 Sigma (“hochsignifikant”). 

Was man dabei nie vergessen sollte: Man kann die Formulierung dabei nicht umkehren! Dass ein Nachweis auf dem 5 Sigma-Niveau gelungen ist, heißt nicht, dass es sich mit 99,99994-prozentiger Wahrscheinlichkeit um ein neues Teilchen (schon gar nicht ein bestimmtes neues Teilchen) handelt! (Die Zahl erhält man, wenn man 0,00006% von 1 abzieht). Das Sigma-Niveau sagt nichts über den nachzuweisenden Effekt, nur etwas über die statistischen Fluktuationen der Messungen. Wer aus seinen Daten direkte Schlüsse auf das zur Erklärung herangezogene Modell ziehen möchte, muss stattdessen Bayessche Statistik lernen. Das ist noch einmal etwas anderes.

Das CMS-Experiment hat Hinweise auf ein Teilchen der Masse 125,3 GeV (plus/minus Fehler; siehe Link) gefunden: bei einem Niveau von 4,1 Sigma für Teilchenreaktionen, bei denen am Ende zwei Photonen herauskommen, und auf dem 3,2-Sigma-Niveau für Reaktionen, bei denen vier Leptonen entstehen (Leptonen sind Teilchen wie das Elektron und seine Verwandten). Zuzüglich einiger schwächerer Hinweise aus anderen Reaktionen kommt dieser Nachweis auf einen Sigma-Wert von 4,9.

ATLAS hat 4.5 Sigma für die Photonen und 3,4 Sigma für die Vier-Leptonen-Ereignisse; wiederum zusammen mit kleineren Beiträgen kommt das Experiment auf 5 Sigma. Die beste Abschätzung für die Masse liegt hier bei 126,5 GeV.

Die Sigma-Abweichungen (sprich: die Ausgeprägtheit der Buckel) lagen z.T. sogar etwas über den Werten, die man dem Standardmodell nach erwarten würde. Könnte das ein erster Hinweis auf Physik jenseits des Standardmodells sein? Schauen wir mal, wie sich die Sache entwickelt.

Die Massendifferenz (125,3 GeV versus 126,5 GeV) ist übrigens nicht statistisch signifikant und dürfte auf die erwähnten statistischen Fluktuationen zurückzuführen sein.

Das wir es mit Ergebnissen von zwei unabhängigen Experimenten zu tun haben – die Detektoren sind unterschiedlich aufgebaut, werten ihre Daten selbst aus usw. – ist durchaus gewollt. Wiederholbarkeit ist in der Wissenschaft ein wichtiges Kriterium. So ein teures Werkzeug wie den LHC dürfte auf der Welt nur einmal gebaut werden. Dass es an diesem Speicherring zwei “Allround-Experimente” gibt, ATLAS und CMS, ist daher durchaus gewollt gewesen – wenn am LHC etwas Neues entdeckt würde, dann sollte es zumindest zwei weitgehend unabhängige Detektoren geben, mit denen sich die Physiker gegenseitig kritisch auf die Finger würden sehen können (die anderen fünf Detektoren am LHC sind speziellerer Natur – zumindest LHCb könnte aber durchaus etwas zur weiteren Untersuchung des neu gefundenen Teilchens beitragen, da zumindest eine Sorte von Reaktionen in den Spezialbereich des LHCb-Detektors fällt).

Bevor wir zu der Frage kommen, ob das, was da entdeckt wurde, nun das Higgs ist, erst noch einmal ein Schritt zurück.

Wofür brauchen wir eigentlich ein Higgs-Teilchen?

Damit die erwähnte Teilchenphysiktheorie, die so tolle Vorhersagen liefert – das Standardmodell-, überhaupt funktioniert! Verkürzt gesagt: Für Kräfte wie Elektromagnetismus und so gibt es im Standardmodell einen höchst erfolgreichen Formalismus. Der funktioniert aber leider nur, wenn bestimmte Teilchen, die mit den Kräften zusammenhängen (Eichbosonen, Kraft-Teilchen, wie immer man sie nennt – für den Elektromagnetismus ist es das Photon) die Ruhemasse Null besitzen. Andererseits zeigen die Experimente aber, dass die mit der schwachen Kernkraft assoziierten Teilchen eine ziemlich heftige Ruhemasse besitzen (80-90 mal soviel wie ein Proton!). Wie passt das zusammen?

Es passt zusammen, wenn man einen Trick anwendet und wie folgt vorgeht: Am Anfang haben alle Teilchen des Modells die Ruhemasse null. Allerdings weist man ihnen eine bestimmte zusätzliche Wechselwirkung zu, mit einem Feld nämlich – dem Higgs-Feld – das eine ganz besondere Eigenschaft hat: unter den Bedingungen, die wir um uns herum sehen, aber z.B. nicht unter den Extrembedingungen kurz nach dem Urknall, hat diese Wechselwirkung die gleichen Auswirkungen, als hätten wir den Teilchen von Anfang an eine Ruhemasse ungleich Null zugewiesen.  

Wie jedes Feld in der Teilchenphysik gehört auch zum Higgs-Feld ein Teilchen. Das ist das Higgs-Boson oder Higgs-Teilchen. (Auf den unsäglichen Begriff “Gottesteilchen” sollte man tunlichst verzichten. In Lindau gingen die Meinungen unter den Laureaten auseinander, ob Leon Ledermans Erfindung dieses Begriffs ein Beispiel für seinen ganz eigenen Humor sei oder nur ein Versuch, sein populärwissenschaftliches Buch zum Thema Higgs-Teilchen zu verkaufen.)

Dieser Trick, um Ruhemasse zu bekommen ohne sie in der üblichen Weise von vornherein in die Theorie hineinzuschreiben, ist mehreren Leuten einigermaßen unabhängig voneinander eingefallen; in alphabetischer Reihenfolge: Robert Brout, Francois Englert, Gerald Guralnik, Carl Hagen, Peter Higgs und Tom Kibble. Higgs hat sich dabei zum Namensgeber entwickelt, und die Teilchenphysiker reden vom Higgs-Boson (und vom Higgs-Feld, und vom Higgs-Mechanismus). Eine Reihe von Wissenschaftlern weisen darauf hin, dass wir eigentlich vom Englert-Brout-Higgs-Guralnik-Hagen-Kibble-Mechanismus (oder so ähnlich) reden sollten. Man darf bezweifeln, dass sich die kompliziertere Nomenklatur durchsetzt – unfair, aber wahr. Aber es ist sicher nicht verkehrt, im Hinterkopf zu behalten, dass auf Seiten der Theoretiker mehr Menschen beteiligt waren als nur Peter Higgs. Dementsprechend hat das CERN zu der Pressekonferenz am Mittwoch auch nicht nur Higgs eingeladen, sondern alle noch lebenden Erfinder des Higgs-Mechanismus (Brout ist leider 2011 gestorben), und außer Tom Kibble waren auch alle davon anwesend.

David Miller hat eine schöne (und inzwischen sehr bekannte) Analogie dafür erfunden, was das Higgs tut. Die hat auch CERN-Direktor Heuer bei der Pressekonferenz angeführt (allerdings ohne Quellenangabe, ts, ts, ts). Ich selbst hatte zu der Frage, was das Higgs und die Masse miteinander zu tun haben und was nicht, vor einiger Zeit einen nach wie vor aktuellen Blogbeitrag geschrieben. Da steht z.B. erklärt, warum Heuer den Journalisten gesagt hat, das Higgs sei zwar für die Masse der Elementarteilchen, aber z.B. nicht für die Masse des Journalisten verantwortlich, der die Frage gestellt hatte.

Warum gerade jetzt?

Warum wurde diese Entdeckung gerade jetzt gemacht?

Am LHC-Vorgänger, dem Elektron-Positron-Speicherring LEP, ist man knapp an einer Entdeckung vorbeigeschrammt. Da dort wirklich Elementarteilchen zusammenstießen (und nicht zusammengesetzte Gebilde wie das Proton) hätte man mit diesem Ring zwar für eine Entdeckung eines 125 GeV-Higgs bei weitem nicht so hoch gehen müssen wie beim LHC mit seinen 7-8 TeV. Aber bei der tatsächlich erreichten LEP-Energie von 209 GeV war ein Higgs mit mehr Masse als 114 GeV dort nicht nachzuweisen.

Dann also der LHC: Der hat freilich eine sehr, sagen wir mal: bewegte Geschichte. Etwas mehr als eine Woche, nachdem die komplexe Maschine Ende 2008 fertiggestellt war, kam es zur Katastrophe: rund 100 der supraleitenden Magnete verloren plötzlich ihre Supraleitfähigkeit (“Quench”), bliesen Tonnen von Helium in den LHC-Tunnel und fügten dem Beschleuniger erheblichen Schaden zu.

Bis Ende 2009 hatten die wackeren CERNianer ihren Beschleuniger wieder in Schuss gebracht. Aber man kann verstehen, dass sie sehr vorsichtig waren und um jeden Preis ein weiteres Disaster vermeiden wollten. Daher gingen sie recht langsam, Schritt für Schritt, zu höheren Energien über und wählten auch die anderen Strahlparameter (wieviele Protonen, wie eng gebündelt usw.) in sehr konservativer Weise. 2011 erreichte der Beschleuniger eine Energie von 3,5 TeV pro Proton (also 7 TeV für zwei kollidierende Protonen), 50% des angestrebten Endwertes.

Was die anderen Strahleigenschaften angeht, ging die Rückkehr zur Normalität sehr viel schneller als erwartet. Die Anzahl der Teilchen pro Grüppchen (bunch) ist jetzt sehr viel größer, als die Beschleunigerphysiker ursprünglich geplant hatten. Diese und weitere Verbesserungen haben dazu geführt, dass die Strahlqualität sehr viel besser ist als für dieses Stadium erhofft. Mit der hohen Qualität geht eine höhere Luminosität einher: eine größere Chance, dass Teilchen in der Tat zusammenstoßen, und damit eine größere Chance, auch seltene Teilchenreaktionen nachweisen zu können.

An dieser Stelle wurde es interessant.

Im April 2012 erhöhte der LHC seine Energie auf 4 TeV pro Proton (also 8 TeV für zwei kollidierende Protonen). Bei dieser Energie ließen die Physiker den Beschleuniger knapp 3 Monate lang laufen. Was sie dabei an Daten sammelten, lies die Beteiligten aufhorchen. Für ein Higgs-Teilchen (oder ähnliches Teilchen) mit der jetzt beobachteten Masse macht der Übergang von 7 auf 8 TeV einen beachtlichen Unterschied – die Nachweiswahrscheinlichkeit steigt vom einen zum anderen Energiewert deutlich an. Was folgte, waren zwei Wochen intensiver Datenanalyse (wobei man annehmen muss, dass die beteiligten Physiker sich dabei störender Gewohnheiten wie des regelmäßigen Nachtschlafes enthielten).

Hat man aus den Daten Größen wie die Zahl der Teilchenreaktionen (events) für einen gegebene Reaktionstyp herauspräpariert, folgt der Vergleich mit den theoretischen Voraussagen: Entspricht das Gemessene tatsächlich dem, was man der Theorie nach erwarten würde? Allerdings: Der Übergang von 7 zu 8 TeV war so schnell erfolgt, dass die Physiker, die mit Computersimulationen berechnen, wieviele Reaktionen der Theorie nach zu erwarten waren, zwischenzeitlich wohl etwa ins Hintertreffen geraten sind (bei solchen “Monte-Carlo-Simulationen” schickt man eine Vielzahl simulierter Teilchen auf simulierten Kollisionskurs). 

Jetzt ist aber alles zusammengekommen, rechtzeitig für die große Teilchenphysikkonferenz ICHEP 2012 in Melbourne in Australien. Und CERN hat dann natürlich auch, noch vor den Australiern, eine Pressekonferenz gemacht – dass z.B. Martinus Veltman diesen Umstand ganz und gar nicht gut findet, hat Lars ja an dieser Stelle bereits gebloggt.

Ist das Higgs-Boson jetzt gefunden?

Alle Physiker, die sich in Lindau dazu geäußert haben – Nobelpreisträger ebenso wie junge Wissenschaftler – haben auf diese Frage hin gesagt, dass es für eine Antwort noch zu früh ist. Erinnern wir uns, dass Teilchen durch ihre Ruhemasse, ihren Spin, Ladungen und Quantenzahlen definiert sind – und das Higgs zusätzlich noch dadurch, wie es mit anderen Teilchen (denen mit Ruhemasse ungleich Null) wechselwirkt.

Bislang zeigen die Experimente, dass wir es mit einem bislang unbekannten Teilchen mit einer Masse um die 125 GeV zu tun haben. Diese Masse entspricht dem, was die Physiker für das Higgs-Teilchen des Standardmodells erwartet hatten: Die LEP-Präzisionsmessungen geben eine Obergrenze von 152 GeV. Vorangehende LHC-Messungen hatten sogar den gesamten Massebereich zwischen 127 GeV und 600 GeV ausschließen können – läge die Higgs-Masse in diesem Bereich, dann wären bestimmte Reaktionen so häufig, dass sie in den LHC-Experimenten längst hätten nachgewiesen werdne müssen. Andererseits konnte die Higgs-Masse nicht unterhalb von 114 GeV liegen, denn sonst hätte man das Teilchen bereits am LEP finden müssen.

Außer der Masse zeigen die Messungen noch, dass das Teilchen weder ein Fermion ist (es ist also kein Materieteilchen wie ein Quark oder Elektron) noch ein Vektorboson (wie die Kraftteilchen Photon, W-Boson, Z-Boson und Gluon). Das zeigt die Beobachtung der Reaktion, bei der am Ende zwei Photonen herauskommen und passt ebenfalls zum Higgs-Teilchen, das stattdessen ein sogenannter Skalar ist.

Aber das ist dann schon so ziemlich alles, was bis jetzt bekannt ist.

Um das neue Teilchen wirklich als Higgs zu identifizieren, müssen die Kollegen von ATLAS und CMS noch weitere für das Higgs typische Teilchenreaktionen beobachten. Bislang haben sie Reaktionen mit Endprodukt zwei Photonen oder vier Leptonen und noch ein paar weitere Zerfallsmöglichkeiten für das Higgs beobachtet. Um den entscheidenden Nachweis anzutreten, dass das hier wirklich ein Higgs ist, muss man aber noch eine ganze Reiher weiterer Reaktionen analysieren. Warum? Weil das Higgs per Definition eine ganz besondere Eigenschaft hat: es tritt mit anderen Teilchen umso stärker in Wechselwirkung, je größer die Ruhemasse der betreffenden Teilchen ist. Das folgt direkt aus der Rolle, die das Higgs spielen soll, daraus, dass es die Ruhemassen dieser Teilchen ja gerade erst selbst erzeugt. Ist dieser Nachweis geführt, dann (und erst dann!) ist hundertprozentig klar: das hier ist wirklich das Higgs.

Bis die CERN-Experimente soweit sind, wird allerdings noch einige Zeit vergehen. CERN-Direktor Rolf-Dieter Heuer sprach in der Pressekonferenz von 3 bis 4 Jahren. In der Zwischenzeit dürfte es immer wieder einmal Meldungen der Form geben: Reaktionsrate X ist damit vereinbar, dass es sich in der Tat um ein Higgs-Boson handelt. Oder eben deutlich spannendere Meldungen, dass es mit irgendeiner der Reaktionsraten nicht hinhaut!

Übrigens: Wenn man nach den früheren Elementarteilchen-Nobelpreisen geht, dürfte das Preiskommittee mit der Vergabe solange warten, bis dieser Nachweis geführt ist.

Wie stehen sich die Chancen, dass es sich um das Higgs-Teilchen handelt?

Sehr gut – und alle Physiker, die ich dazu gehört habe, sind sich einig, dass es zumindest ein Higgs-Teilchen sein dürfte. Eine ganze Reihe der Physiker gaben direkt im Anschluss dann ihrer Hoffnung Ausdruck, dass es sich nicht um das Higgs-Teilchen handle, nämlich das Higgs-Teilchen des Standardmodells. Denn wenn es sich um eine andere Sorte Higgs-Teilchen handle – das würde sich in den erwähnten Nachuntersuchungen zeigen – dann wäre das ein wichtiger Hinweis auf Physik jenseits des Standardmodells.  Und das wäre ungleich spannender, als einen lange erwarteten letzten Baustein eines ansonsten bereits bekannten Standardmodells zu finden.

Beispielsweise sind da bestimmte Erweiterungen des Standardmodells, die unter der Bezeichnung “Supersymmetrische Standardmodelle” fungieren. Solche Modelle haben eine Reihe attraktiver Eigenschaften – etwa Teilchen, die für die aus der Astronomie bekannte, aber teilchenphysikalisch rätselhafte Dunkle Materie verantwortlich sein könnten. Die einfachsten Modelle enthalten insgesamt fünf Higgs-Bosonen. Würde man diese finden, würde dies eine ganz neue Welt von Teilchen eröffnen. Andererseits sagte der CERN-Theoretiker John Ellis bei der Podiumsdiskussion in Lindau (wo er per Videoverbindung hinzugeschaltet war): Wenn die Supersymmetrie nicht gefunden wird, bis der LHC seine Designenergie von 13 oder 14 TeV erreicht, dann sieht es schlecht für sie aus.

Wie geht es weiter?

Zunächst einmal ist die Entdeckung ein überzeugender Hinweis darauf, dass der Higgs-Mechanismus funktioniert und die Teilchen des Standardmodells ihre Ruhemassen in der Tat auf diese Weise bekommen. Für einige der Physiker, die an möglichen Alternativen gearbeitet haben, wird das eine Enttäuschung sein; andere wird es mit stiller Zufriedenheit erfüllen, und wieder andere werden die Schultern zucken und sagen, das sei jetzt keine Überraschung. Wie Martinus Veltman in Lindau sagte: Damit “schließt man die Tür” hinter dem Standardmodell – das Modell ist vollständig, das hier war das letzte fehlende Puzzlestück, und das war’s dann erstmal.

Spannend wird es, wie erwähnt, wenn die Anschlussuntersuchungen Hinweise auf Eigenschaften geben, die man dem Standardmodell nach nicht erwarten würde. Dann sind wir wirklich bei neuer Physik, und lernen etwas Grundlegendes über unsere Welt hinzu.

Aber auch bislang ohne neue Physik gilt: Wir kennen jetzt die genaue Masse des neuen Teilchens, und das gibt an, wo wir weitersuchen müssen.

Was jetzt?

Kurzfristig bewirkt die Entdeckung laut Aussage von CERN-Direktor Heuer, dass die jetzige Betriebsphase des LHC um zweieinhalb bis drei Monate verlängert wird. Eigentlich sollte der LHC jetzt zu Wartungszwecken stillgelegt und während der zweijährigen Wartungsphase gründlich überholt werden. Jetzt wird die Wartung etwas herausgezögert. Die zusätzlichen Daten könnten zeigen, welchen Spin das neue Teilchen hat (Skalar? Pseudoskalar?), und weitere Reaktionstypen könnten erste Hinweise darauf liefern, ob es die Higgs-typische Eigenschaft (Wechselwirkungsstärke proportional zur Ruhemasse des Teilchens, mit dem das Higgs wechselwirkt) besitzt.

Längerfristig sagt der Massenwert von 125 GeV den Physikern, welche Art von Beschleuniger sie bauen müssen, um die Eigenschaften des Teilchens – sprechen wir ab jetzt vereinfacht vom “Higgs”, trotz der oben genannten Gründe zur Vorsicht. Carlo Rubbia verglich die Situation mit der Entdeckung von W- und Z-Bosonen, für die er seinen Nobelpreis bekam. Diese Teilchen waren am Proton-Antiproton-Speicherring SPS am CERN entdeckt worden. Aber während Protonen gut sind, um hohe Energien zu erreichen – mit denen sich dann entsprechend einfacher neue, massereichere Teilchen erzeugen lassen – sind Protonenkollisionen ein ziemliches Durcheinander (siehe das erste Bild oben in diesem Beitrag). Protonen bestehen aus vielen Teilchen, und neben den interessanten Reaktionen findet drumherum eben viel Müll statt, der einen eigentlich gar nicht interessiert, der aber angemessen berücksichtigt werden muss. Das macht es dann wiederum schwierig, die genauen Eigenschaften des Teilchens herauszufinden oder gar Präzisionsmessungen daran vorzunehmen. Im Falle von W- und Z-Boson hat CERN im Anschluss an das SPS den LEP-Speicherring gebaut. Dass darin Elektronen und Positronen kollidieren – bei welcher Energie das geschehen musste wusste man aus den SPS-Ergebnissen – führt zu viel übersichtlicheren Situationen, in denen Präzisionsmessungen möglich werden. LEP hat dann mit großer Genauigkeit die Massen von W- und Z-Bosonen bestimmt, aber beispielsweise auch die Zahl der Neutrinosorten im Standardmodell (3) festgenagelt. [Gegen Ende des LEP-Betriebes wurde sogar behauptet, man habe dort Spuren des Higgs gefunden – allerdings für ein Higgs mit einer Masse von 115 GeV; die neuen LHC-Messungen schließen das aus.]

Rubbia schlug vor, für das Higgs (oder was immer es nun ist) genau so vorzugehen und jetzt eine “Higgs-Fabrik” zu bauen, einen Beschleuniger, der genau auf die Belange des neuen Teilchens zugeschnitten ist und an dem sich Präzisionsmessungen vornehmen lassen. Das könnte ein Elektron-Positron-Speicherring etwas größer als LEP sein, oder ein Linearbeschleuniger, oder ein Teilchenbeschleuniger, der Myonen miteinander kollidieren lässt, die massereicheren Cousins der Elektronen. David Gross fügte dann gleich hinzu, das sei die Chance für die USA, wieder in der ersten Liga der Teilchenphysik mitzuspielen.

Mit anderen Worten: Es bleibt spannend. Aber wir dürften noch einige Zeit, vielleicht sogar einige Jahre, warten müssen, bis wir wissen, woran wir da nun eigentlich sind.

Higgs search update: basics and subtleties

I admit to having been skeptical. The Higgs – so what? It’s not like this was unexpected. But the Lindau meeting is a good place to get many different perspectives on the new discovery: watching the CERN press conference, attending Lindau’s own press conference with Carlo Rubbia, David Gross and Martinus Veltman, listening to the discussion of those three with George Smoot (moderated by CERN’s Felicitas Pauss), or just talking to the young researchers (a number of which work on the CMS and ATLAS experiments; additional thanks to Albrecht Wagner and Juan García-Bellido for answering some of my remaining questions). So here is a brief guide to the basics and subtleties of the Higgs search update. And yes, by now I’ve become infected with my particle colleagues’ enthusiasm for what has happened.

Let’s start with the basics.

The accelerator: Energy and beam quality

This is, of course, all about the Large Hadron Collider or LHC, which, in the best tradition of particle accelerators worldwide, brings particles to impressively high speeds before smashing them into each other. For the new measurements, each proton had an energy of 4 TeV – more then 4000 times the energy a proton has when it is simply at rest, corresponding to a speed of 99.9999945 % the speed of light.

Energy is the key, but you also need beam quality. In the LHC, bunches of protons circulate in opposite directions in a ring made of vacuum tubes, adorned with magnets to get the particles around the curves, and acceleration cavities to get them up to speed and keep them there. On the order of a thousand bunches race clockwise, and the same number anti-clockwise. As the accelerator is ring-shaped, you can try again and again to bring the protons into collision – if they miss each other at one time, they will circle back for another try.

It’s not an easy task to aim bunches of protons at each other so as to produce collisions: You need to focus the beams and make sure that, at the collision points, they head for each other very precisely. A huge amount of work goes into producing a quality beam or, in particle physics parlance, “achieving a high luminosity”. Good luminosity was another key to the results we are now seeing.

What’s a particle, anyway?

Everyday objects are very complicated. Elementary particles, in contrast, are very simple. They have only very few distinguishing characteristics. Their rest mass is one of those characteristics (why “rest mass”? Because mass, as defined via the fact that it is more difficult to deflect a particle with a high mass than one with little mass, gets larger as a particle gains speed relative to the observer. It’s an Einstein thing). Their spin, in overly simplified terms “how fast the particle is rotating like a spinning top”, is another. Electric charge is yet another – electrons, for instance, have a charge that, in the usual units of particle physics, is -1; quarks have charges of either +2/3 or -1/3 in those same units. There are a number of additional charges, and characteristic properties called “quantum numbers”, all characterized by simple numbers, typically integers.

Completely specify a particle’s spin, mass, charges and quantum numbers and you have defined the particle – almost, that is. In the case of the Higgs particle, there is an important additional property: The Higgs interacts with all other elementary particles that have a mass (more precisely: a rest mass) in a very specific way. We’ll come to that later on.

The theory: Can’t do everything, but can do this

The good news is that physicists have a theory that describes elementary particle behavior very, very accurately: the standard model of particle physics. The other good news is that, while it’s fiendishly difficult to apply that theory fully to a number of important situations (states in which particles are bound together: the proton! the hydrogen atom!), it provides for a straightforward way to calculate what happens in situations where particles pass each other, barely interacting. Happily, this is exactly what you need to calculate what happens in particle collisions in accelerators.

In particular, the theory allows you to calculate the probabilities for different types of particle reactions to happen. If you provide information on how (at what speed? oriented how? at what distance?) two particles are passing, it will give you the probability that a specific interaction between the particles happens.

Particle reactions

When particles interact in accelerators, you can describe the basic reactions in a simple way: The only thing that happens is that some particles emit or absorb other particles, either changing in the process or not.

There are rules for which particles can emit or absorb which. The charges play a key double role there: For one, they impose book-keeping rules, as do the quantum numbers. For every particle reaction, there is before and after. If you have a certain amount of electric charge before the particles interact, you must have exactly the same amount afterwards. If you start with a particle with electric charge plus 1 and one with charge -1, then it’s OK if you end up with an uncharged particle [since +1 and -1 give 0], or with two particles with charge +1 and two with charge -1 [since +1 plus -1 is the same as +2 plus -2], but you cannot, for instance, end up with nothing more than two particles with electric charge +1 [since +2 is not the same as +1 plus -1].

The charges also tell you how strongly particles will interact via a specific force. The electric charge, for instance, will tell you how strongly the particle will attract or repel other particles via the electromagnetic force. 

Many of the particles produced in collisions at particle accelerators are very short-lived. They decay into other particles within a small fraction of a second. A typical particle physicist’s puzzle consists of lots of data about particles that have been found in the detectors, using the known rules for particle reactions, reconstruct what happened.

Reacting particles: Probabilities

Particle reactions are all about probability. You cannot predict what is going to happen (that’s quantum theory for you), but you can predict probabilities. These probabilities are energy-dependent, and a typical prediction of particle theory is that, at a given energy, there is an X percent chance of reaction A occuring, Y percent chance of reaction B, and so on.

Then, you analyze your accelerator experiments and add up the numbers. Your predictions tell you how many cases of reaction A (“A-events”) to expect, how many B-events, and so on.

If a reaction is very rare, you need to arrange for as many collisions as you can. One way of doing this is to leave your accelerator running for a long time. The other way is to increase beam quality (luminosity): Get those particle bunches concentrated, so collisions become more likely than otherwise!

Reacting particles: Energies

As already mentioned, reaction probabilities depend on energy. At some energies, particles react comparatively rarely – they will mostly pass each other by without anything happening. At other energies, lots of interactions will occur.

One key factor in this is the mass of the particle being produced. Einstein has taught us that rest mass can be thought of as a form of energy. That’s why, in your book-keeping, particle physicists do not look at mass and energy separately. What you need to look at is the total energy: rest masses, kinetic energy and possible other forms of energy combined.

So consider you are putting a certain amount of energy into a collision. You can never get out a particle whose rest mass is greater than that energy! (If you worry about units, read: “whose rest mass times the square of light…”.)

In fact, at energies where you’re just about to afford producing a specific particle, the reaction rate will go up. That’s a typical way you realize there is a new particle in the first place. Here’s a slide Felicitas Pauss from CERN showed at the Lindau discussion session on Wednesday. It shows data from the CMS experiment, one of the two experiments looking at LHC particle collisions that contributed to Wednesday’s announcement. On the x axis, you see the energy you can measure for one specific reaction (which has two photons coming out) – which is a measure for the energy that went into the reaction (since what energy went in will be the same that came out- these two photons). On the y axis is the number of events at that particular energy. You can see there’s a bump a bit around the energy of 120 GeV (GeV is a measure of energy usual in particle physics): That bump is the visual signature of the newly discovered particle, and also the clue as to its mass: There is a bump at about 125 GeV. There are more events there. Around that particular energy, you see more events; evidently, a particle is produced with this particular mass.

There are similar results – bumps – for other reactions measured by the same CMS experiments, and for these reactions measured by ATLAS, another LHC experiment. That’s the key evidence we’re discussing here.

Particles can also contribute, albeit very slightly, to what happens at energies significantly lower than their mass (“radiative corrections”). In this way, high-precision measurements at the LHC’s predecessor, the electron-positron collider LEP, had already shown that the Higgs mass must be less than about 152 GeV.

Reactions and energies: Some caveats

If you try to add up the numbers, you might wonder what the connection with energy really is.

Doesn’t the LHC have much more energy than 125 GeV? The previous and current measurements that gave indications of the new particle used LHC energies of 7 to 8 TeV (that is, 3.5 TeV and 4 TeV per proton), corresponding to 7000 to 8000 GeV. Why so much? Because that energy is the sum of the energies of the protons, and protons are composite particles: they contain quarks (three apiece) and gluons, figuratively the glue binding those quarks together. The “elementary collisions” within the accelerators are between those constituents: two quarks interacting with each other, or a quark and a gluon. But those constituents will only have a fraction of the energy of the whole proton. That fraction of energy is what you’re working with to create a new particle, such as the Higgs.

What about that sigma?

If you go into the details, there are numerous occurences of the greek letter sigma. What about those?

The easiest is not to look at the background (i.e. not look up the Wikipedia entry standard deviation) but simply accept those sigmas as short-hand notations for probability. 

More concretely, for the probability that the effect you think you see in your data (such as the bump in the image above) is not due to some specific effect, but instead due to statistical fluctuations. Nearly all of what you measure in physics has a measurement error. You can never control all the error sources – detectors seeing something where there is nothing, the transistors of your instruments giving some small spurious signals, and a myriad more little things. As soon as you repeat a measurement, you can estimate the combined effect of all those tiny little errors. You can’t miss them: They’re the ones that make your result come out slightly different each time, even if you’re really measuring the same thing. 

Once you know the size of those fluctuations, you can estimate the probability that these fluctuations will conspire in a way so as to impersonate a physical effect – for instance: the probability of the fluctuations adding up to form the bum to see in the above image. This probability is expressed in terms of sigma, where different values mean the following:

Sigma level Probability
1 sigma 31.7 %
2 sigma 4.6 %
3 sigma 0.3 %
4 sigma 0.006 %
5 sigma 0.00006%

So when physicists say that there is “a detection at the 5 sigma level”, what they’re really claiming is that “the probability that what we’re seeing is due to statistical fluctuations and not a real effect at all is 1 in 1.7 million, or 0.00006%”.

It is conventional in science to accept an effect as real once a certain sigma level (or “level of significance”) has been reached. Particle physicists usually demand 5 sigma. Astronomers are often happy with 3 sigma. In other sciences, you could see results at the 2 sigma level (a.k.a. “statistically significant”) or 3 sigma level (a.k.a. “highly significant”).

Note that this does not mean that e.g. at the 5 sigma level, the data show that the probability of the bump being the consequence of a new particle is 99.99994% (which number you obtain by subtracting 0.00006% from 1). The sigma-probability quoted here tells you nothing about the effect itself, only about the statistical fluctuations of your measurements. If you want to make direct deductions about your model from your data, go learn about Bayesian statistics

The CMS experiment had indications of a particle of mass around 125.3 GeV at a level of 4.1 sigma from events resulting in two photons, and 3.2 sigma for events resulting in four leptons (that is, particles such as electrons and their kin). Including some smaller contributions from other reactions, they obtain a combined value of 4.9 sigma.

ATLAS has 4.5 sigma for the photons and 3.4 sigma for the four-lepton events for a particle of mass of 126.5. Again together with other types of reaction, they get a combined value of 5 sigma.

The mass difference between the two experiments (125.3 GeV and 126.5 GeV) on the other hand is likely to be due to those pesky statistical fluctuations, and currently no cause for concern.

Before we go on to the question of whether this thingy is the Higgs or not, let’s take one step back:

The Higgs: What is it good for?

Absolutely noth… oh, no, wait. On the contrary: The Higgs is needed to make the standard model of particle physics work. Very briefly: When it comes to forces like electromagnetism and the like, the standard model has a highly successful formalism. The problem: Theories like this, as far as we know, only work if some specific particles associated with the force (“gauge particles” or force-carriers) are massless. But the properties of the weak force indicate that those very particles do have quite a large mass. What to do?

As it turns out, you can have both: Those particles are massless to begin with. But they have one particular form of interaction with an all-pervading field – the Higgs field – that, under conditions like those we see around us (that is, not the ultra-hot high-energy universe shortly after the big bang) can endow particles with a rest mass.

Like every other field in particle physics, the Higgs field should have an associated particle. That’s the Higgs boson.

This clever trick (mass without conventional mass) was thought up by several people independently; in alphabetical order: Robert Brout, Francois Englert, Gerald Guralnik, Carl Hagen, Peter Higgs and Tom Kibble. Higgs’ name stuck – we’re calling it the Higgs boson (and the Higgs field, and the Higgs mechanism). Some scientists say we should properly talk about the Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism (or variations thereof). It’s probably not going to catch on – unfair, I know. But it’s not a bad idea to keep in mind these days that on the theory side, there are more people involved than just Peter Higgs. It’s no coincidence that CERN invited not only Higgs, but all of the inventors that are still living (Brout died in 2011) to their press conference on Wednesday (and all but Tom Kibble came, and were present at the announcement).

David Miller invented a nice (and, by now, famous) analogy for what the Higgs does.  Heuer used the same analogy (without saying whence it came, though – tsk, tsk, tsk). 

Why now?

Why was the discovery made right now? That follows from the, let’s say: somewhat turbulent history of the LHC. Construction of the highly complex machine was finished in late 2008. A bit more than a week after the first beam was successfully circulated, disaster struck: a good 100 superconducting magnets suddenly lost their superconductivity (“quench”), blowing tons of liquid helium into the tunnel and damaging a substantial part of the accelerator.

By late 2009, the plucky people at CERN had gotten their accelerator back on track. But they were very careful to avoid another accident, and went to higher and higher energies slowly and carefully, choosing all the beam parameters very conservatively. In 2011, they reached 3.5 TeV per proton (7 TeV for two protons colliding), 50% of their eventual goal.

As far as the other beam parameters were concerned, the return to normal also went much faster than anyone had expected. The number of particles in each circulating bunch, for instance, is now much higher than expected. This and other parameters have led to a beam of much higher quality than the physicists had hoped for. And with the higher quality came higher luminosity, that is: a better chance for particles to actually collide, and for rarer events to be seen.

That’s when things began to get interesting.

In April 2012, the LHC increased its beam energy to 4 TeV each (8 TeV for the two beams together). They let it run for three month. Once the data was in, and it became clear that there was something special going on, the physicists embarked on two weeks of highly intensive data analysis (temporarily abandoning distracting habits such as sleeping, one presumes).

Once your data been condensed into quantities such as the number of events for a given reaction at a given energy, you need to compare it with the theoretical predictions – that is, with what you expect to see if your theory and your models of what is happening inside your detectors are correct. In fact, the transition from collision energy 7 TeV to 8 TeV happened unexpectedly fast, so that it was quite a challenge for the people doing computer simulations of particle reactions (“Monte Carlo simulations”, where you send lots of simulated particles into simulated collisions) to keep up!

Did they find the Higgs, then?

Too early to tell (as all physicists, Nobel laureates and young researchers included, pointed out when asked this question!). Remember that a particle is defined by its rest mass, spin, charges and quantum numbers, plus, in the case of the Higgs, characteristic properties of its interaction with other (non-zero mass) particles.

So far, the experiments show that we’re dealing with a particle with a mass around 125 GeV. That is, in fact, about what physicists had been expecting for a standard-model Higgs: The LEP measurements had given an upper bound of 152 GeV. In fact, the earlier LHC measurements had excluded the whole mass region between 127 GeV and 600 GeV – at that masses, certain reactions would have been so abundant that the LHC experiments would have noticed. On the other hand, the Higgs mass could not be lower than 114 GeV. Otherwise, the particle would already have been found at LEP.

Beyond that, the observed decays show that the particle is no fermion (that is, no matter particle such as a quark or electron) and that it is no vector particle (such as the force carriers: photon, W, Z, gluons). That is also consistent with the Higgs, which is a so-called scalar instead.

But that’s about all we know.

What the ATLAS and CMS physicists need to do before they can be sure this is the Higgs boson is to look at different reactions involving the Higgs. So far, they’ve looked into reactions that left as their traces either two photons, or four leptons. Looking at the other possible reactions, they will be able to answer the crucial question whether or not the strength of the Higgs’ interaction with other particles is proportional to those particles masses. That is the key defining feature. If the new particle does that, it is definitely the Higgs.

It’ll be some time until we know for sure, though. CERN director Rolf-Dieter Heuer spoke of 3, 4 years minimum.

 

So what are the chances this is the Higgs?

Chances are good – and all the physicists I heard talk on the subject agreed that this is a Higgs. A number expressed their hope that it was not the Higgs, that is, the Higgs predicted by the standard model. Because if it isn’t, it could be the first sign of new physics, and that would certainly make matters much more interesting indeed.

For instance, enlarged versions of the standard model known as “supersymmetric standard models”, which have some desirable (to theorists) properties of their own, predict several different Higgs bosons – five in total, for the simplest model. If you were to find those, it would open up a whole new world of particles. On the other hand, as CERN theoretician John Ellis said in the podium discussion in Lindau (in which he participated by video-link): If supersymmetry is not found once the LHC has reached its design energy of 13 or 14 TeV, then supersymmetry is in trouble. He called it a “make or break” point.

So what do we learn from the find?

First of all, it’s a strong indication that the Higgs mechanism works, and that particles indeed get their rest masses in this way. For some people working on alternatives to that mechanism, this is going to be disappointed; others are going to feel a quiet satisfaction, and still others will have known all along. As Martinus Veltman said, this is like “closing the door” on the standard model – it’s not all, but a large part of the last missing piece of the standard model, so that is that.

But we also know the mass of the new particle, and that tells us where to look next.

What next?

First of all, Heuer said that they are going to extend the current phase of LHC operations by 2.5 to 3 months. The LHC was heading for a 2-year shut-down and overhaul phase, which they have now postponed. The additional data should enable them to tell whether the Higgs is a scalar or a pseudoscalar, for instance, and also give more indication whether or not this really is a Higgs in the first place.

Longer-term, the mass value of 125 GeV tells physicists what kind of accelerator they need to build in order to explore the properties of this particle – let’s just call it “the Higgs”, despite the caveats – further. Carlo Rubbia likened this situation to the one he got his Nobel prize for, the discovery of the W and Z particles. The particles were found at the proton-antiproton collider SPS at CERN. But while protons are good for reaching high energies – which in turn make it possible to produce new particles not previously found -, proton collisions are very messy. That is due to the fact that the proton itself is messy, consisting of quarks and gluons. In each collision, you will get lots of debris. For the W and Z, CERN followed up with LEP, which collided electrons and positrons. That make for much cleaner reactions, allowing, for instance, the precise determinations of the masses of W and Z, and the determination of the number of standard model neutrinos (3). [Incidentally, right at the end of LEP operations, it was claimed that they had seen some traces of the Higgs. But that was at a mass of 115 GeV; the new LHC find casts serious doubt on that LEP claim.]

Rubbia proposed doing something similar for the Higgs (or whatever it turns out to be): build a “Higgs-factory” such as an electron-positron collider slightly larger than LEP, or a linear collider, or a collider using muons, to do precision measurements. David Gross then chimed in to say that this was the chance for the US to come back into the race, and regain its former particle physics glory!

All in all, there are some interesting times ahead. But we are likely to need some patience – it could well be that we will only know for sure in 3-4 years. 

The discovery of the Higgs occupies the minds of everyone in Lindau

Today, 4th of July 2012, has been a very long but exciting day. I was here in Lindau, writing my last blog at one o’clock in the morning, when I received an email from a colleague who warned me of a leak from CERN that appeared in the British newspaper The Telegraph, showing an unauthorized video with the discovery of the Higgs particle at CERN. I went immediately to the website. If what they said was true, the discovery seemed to be one of the most spectacular in recent decades in particle physics. In addition, the statistical significance of the discovery had gone up from the four sigmas that many of us had heard rumors of, to not less than five sigma for each experiment, CMS and ATLAS – that is, with a probability of only two parts per million of being wrong. A few hours later the recording disappeared from the Telegraph website.

After a few hours sleep, at 8.00 am, I connected to the CERN website to follow the webcast of the two seminars that were supposed to announce the discovery of the last piece of the Standard Model of fundamental interactions, the Higgs particle. I could see people were already filling the Main Auditorium at CERN. I went quietly to breakfast, and at 9.00 am I was already glued to the screen, while the Director-General – Rolf Heuer – presented to both CMS and ATLAS spokespersons – Joe Incandela and Fabiola Sagnotti. They looked nervous and tired, but very happy. Heurer began: “Today is a special day … and I’m being diplomatic … Today we will take a look at the search for a certain particle … I forgot the name, but I am sure that the experiments will remind me”, which made the whole audience brake into laughter.

The first to present the results was Joe Incandela from CMS. At 9.38 in the morning he finally announced the discovery of a new boson, with mass 125.3 + / – 0.6 GeV, with a statistical significance of 4.9 sigma, and with decay rates that were in agreement with the Standard Model Higgs. Then came Fabiola Sagnotti of ATLAS, with a Higgs mass of 126.5 GeV and statistical significance of 5.0 sigma, compatible with the predictions of the Standard Model. So it seemed that CERN scientists had succeeded at last, after nearly 30 years, to complete the search for one of the most elusive particles, having needed for it the terms of 6 consecutive Director-Generals. This discovery is certainly one of the greatest achievements of particle physics of all time, although there is much to explore, and we still need to clarify whether this is really the Higgs boson, the only fundamental scalar of the Standard Model, and not just the lightest partner a larger sector of electroweak symmetry breaking in a theory beyond the Standard Model.

Minutes later we followed on the screens of the main auditorium of Lindau the press conference at CERN, offered by Heuer, Incandela, Gianotti and Evans, which was broadcasted worldwide via webcast from CERN. It is clear that journalists knew the subject well, and were able to ask very smart and appropriate questions. In the press conference were also present Peter Higgs, François Englert, Gerald Guralnik and Chris Hagen, parents together with Tom Kibble and Robert Brout of the idea of the generation of mass for the W and Z bosons, through their interaction with the Higgs boson. My impression was that this extraordinary discovery at CERN was being followed by the media all over the world and would soon reach the television news, and the general public, so it had to be very carefully orchestrated. The truth is that what we saw at CERN was not only impeccable scientific work, but also a great job at coordination with the media.

I was lucky to find myself in Lindau precisely at the time of the announcement of the discovery of the Higgs since it has allowed me to see firsthand the unanimous reaction of the physics Nobel laureates around here, who all agreed to congratulate the scientists at CERN for a capital discovery. Many were whispering the word Nobel prize, to reward the tremendous effort of a community of more than 5000 people between the two experiments, which had worked together in cooperation and competition – as Rolf Heuer insisted – to achieve the goal, fast and efficiently. In fact, some, like Tini Veltman, were surprised that it had been reached so soon, thanks to the good work and tremendous effort of accelerator physicists and computer scientists of the GRID, which have enabled both CMS and ATLAS experiments to reach the nominal luminosity and analytical tools necessary to find “the needle in the haystack.”

We had our own press conference at Lindau, with David Gross, Tini Veltman and Carlo Rubbia answering multiple questions from the media, and soon afterwards we had – nicely scheduled by the organizers of this year’s Lindau meeting – an interesting exchange of information with scientists at CERN: John Ellis from the Theory Division and the spokespersons of CMS, ATLAS and LHCb. This session allowed us to discuss further the physical consequences of the discovery of the Higgs boson, its consequences for supersymmetry, and the future of particle physics. In a couple of years, with the upgrade of the LHC up to 14 TeV, and later on with a possible muon collider working as a Higgs factory, one could explore all the Higgs couplings to Standard Model particles and the details of the electroweak symmetry breaking sector. It is definitely a golden moment for particle physics.

Today it has been a long day indeed, but we can all go to sleep with the assurance that the Higgs particle, or something very similar to the Higgs, has finally been discovered at the European laboratory, successfully completing a very complex and delicate race.

Congratulations, CERN!

Tricking nature to give up its secrets

By their very nature, those discoveries that most change the way we think about nature cannot be anticipated
This was Douglas Osheroff’s claim at the start of his lecture on Wednesday morning, where he promised to tell the young researchers at Lindau “how advances in science are made”.
In his talk Osheroff offered five things that scientists should keep in mind if they want make a discovery. One example that Osheroff used to illustrate these points was the discovery of cosmic microwave background (CMB) radiation by Arno Penzias and Robert Wilson. It earned them the Nobel Prize in Physics in 1978, and provided evidence for an expanding universe that started with a big bang.
Penzias and Wilson were both working at Bell Laboratories on radio astronomy when they discovered the CMB. “Penzias had convinced AT&T to allow him and Wilson to use this very elegant piece of high tech machinery to look at the radiation coming in from outer space,” says Osheroff. The antenna they used was originally developed in order to test the feasibility of satellite communications and had one of the quietist receivers of its day. It is important to use the best equipment available, says Osheroff.  But you should also make sure that you don’t reinvent the wheel.  You should borrow technology where you can, says Osheroff.
Your best bet to find something new and possibly unexpected is to look in an unexplored region of the physical landscape, And remember that failure might be an invitation to try something new. Looking at their data, Penzias and Wilson saw what they thought was noise, evenly spread across the sky. So they tried to find the source of it, eventually climbing up into the antenna itself. There they found some pigeons roosting. “Always check your experiment for pigeon nests before starting,” said Osheroff – not one of the most widely applicable pieces of advice from his talk, but perhaps worth bearing in mind in some very specific situations.
 
In Wilson’s own words from his Nobel lecture
 
A pair of pigeons was roosting up in the small part of the horn where it enters the warm cab. They had covered the inside with a white material familiar to all city dwellers. We evicted the pigeons and cleaned up their mess, but obtained only a small reduction in antenna temperature. 
You should be aware of subtle unexplained behaviour – don’t just dismiss it, says Osheroff, as his final piece of advice. When, even after clearing out the pigeons and their droppings, Penzias and Wilson failed to eliminate the roughly 3 Kelvin background radiation they were measuring, they did not decide to dismiss it as noise and just recalibrate their instruments. They figured out, with the help of theorists including Jim Peebles, and went on to win the Nobel.
“You have to trick nature to give up its secrets,” concludes Osheroff. “It’s a fun game to play.”
How to discover a Higgs boson
Wednesday morning’s sessions at Lindau were somewhat overshadowed by the announcement from CERN of a new particle that looks a lot like a Higgs boson – a discovery that has been anticipated for a long time. Of course the Higgs result is not what Osheroff talked about in his session on scientific advances. But plenty of what he said applies here too.
In making their discovery, scientists at CERN had to push the boundaries of particle accelerator technology. Describing the process of working on a programme like that of the LHC, CMS experiment spokesperson Joe Incandela, said: “We go into the [LHC] programme with a goal for physics, but we don’t necessary have the technology yet.” 
But, though they developed some new technology, they didn’t re-invent the wheel, or in this case, the tunnel: the LHC is housed in the same tunnel that was used by LEP, the Large Electron-Positron collider that was at CERN before the LHC was.
High-energy particle physics moves forwards by increasing the energy at the detectors. Last year CERN made the decision to step up its energy from 7 TeV to 8 TeV. It created more work for the scientists there because they had to run lots of simulations again, said George Smoot at the afternoon panel on CERN at Lindau. But they thought the extra reach it would give them was worth it. “It was a risk,” says Smoot, who was not involved in the research. “But it paid off.”
And scientists at CERN are looking where no-one has been able to before. “We’re reaching into the fabric of the universe in a way we’ve never done before,” said Incandela at the press conference from CERN. “We’ve completed one part of the story and we’re on the frontier now. We’re way out on the edge of understanding. It’s exploration.”
As ever, this scientific discovery would be more exciting if it turns out not be exactly what we expect. “The Standard Model is not complete,” says Fabiola Gianotti, spokesperson for the ATLAS collaboration. “I hope the picture will be much more complicated than what we see today. I would be delighted if this was not a Standard Model Higgs boson.” 

more