10-11 октября 1957 года на ядерном реакторе в британском графстве Камбрия случился пожар, приведший в выбросу в атмосферу радиоактивных материалов. Облако с радиоактивными изотопами (йод-131, цезий-137, полоний-210) распространилось далеко за пределы Великобритании. (См. подробное описание в докладе Второй международной конференции ООН по мирному использованию атомной энергии, District Surveys following the Windscale Incident, October 1957, переопубликованный в статье Journal of Radiological Protection, статья в свободном доступе.)
Утверждается, что отчасти из-за установки властей, отчасти из-за недостаточно развитой регистрирующей аппаратуры, истинный масштаб распространения заражения был существенно занижен.
Недавно в журнале Atmospheric Environment появилась статья с новыми данными, из которой следует, что облако распространилось намного дальше на восток (и затронуло больше стран), чем считалось ранее.
[Комментарии на Элементах]
6 октября 2007 г.
20 сентября 2007 г.
Модель Биологического Большого Взрыва
Наткнулся на одну занятную статью: The Biological Big Bang model for the major transitions in evolution, Biology Direct 2007, 2:21 (статья в открытом доступе).
В ней автор сначала напоминает, что в истории развития жизни на Земле были периоды взрывообразного увеличения сложности и разнообразия форм, которые потом сменялись более длительными периодами медленной эволюции. Он видит в этом аналогию с космологической теорией Большого взрыва, а точнее со стадией инфляции (экспоненциального раздувания Вселенной), которая после фазового перехода сменилась фазой относительно медленного расширения.
В рамках этой аналогии он предполагает, что в основе каждого такого периода бурного увеличения сложности или разнообразия лежит некий эффективный механизм комбинирования (скажем, горизонтальный перенос генов и т.п.). Он в течение некоторого времени работает, что приводит к экспоненциальному росту разнообразия, а потом выключается или сильно ослабевает. Такую картину автор назвал моделью Биологического Большого Взрыва.
Были бы интересны комментарии специалиста по этой работе. Есть ли в ней существенно новое рациональное зерно, именно с точки зрения биологии, или же это просто проведение аналогий между явлениями на основании их внешней похожести? Видны ли какие-нибудь способы проверить эту гипотезу?
Кстати, сам журнал интересен тем, что в нем полностью общедоступны не только сами статьи, но отчеты резенцентов и даже переписка между автором и рецензентом. Интересный эксперимент.
[Комментарии на Элементах]
В ней автор сначала напоминает, что в истории развития жизни на Земле были периоды взрывообразного увеличения сложности и разнообразия форм, которые потом сменялись более длительными периодами медленной эволюции. Он видит в этом аналогию с космологической теорией Большого взрыва, а точнее со стадией инфляции (экспоненциального раздувания Вселенной), которая после фазового перехода сменилась фазой относительно медленного расширения.
В рамках этой аналогии он предполагает, что в основе каждого такого периода бурного увеличения сложности или разнообразия лежит некий эффективный механизм комбинирования (скажем, горизонтальный перенос генов и т.п.). Он в течение некоторого времени работает, что приводит к экспоненциальному росту разнообразия, а потом выключается или сильно ослабевает. Такую картину автор назвал моделью Биологического Большого Взрыва.
Были бы интересны комментарии специалиста по этой работе. Есть ли в ней существенно новое рациональное зерно, именно с точки зрения биологии, или же это просто проведение аналогий между явлениями на основании их внешней похожести? Видны ли какие-нибудь способы проверить эту гипотезу?
Кстати, сам журнал интересен тем, что в нем полностью общедоступны не только сами статьи, но отчеты резенцентов и даже переписка между автором и рецензентом. Интересный эксперимент.
[Комментарии на Элементах]
16 сентября 2007 г.
Гидродинамические явления в картинках
Список ссылок на подборки фотографий по гидро и аэродинамике.
Если кто еще знает интересные ссылки, поделитесь.
[Комментарии на Элементах]
- Знаменитый Альбом течений жидкости и газа -- онлайн.
- Gallery of Fluid Motion -- ежегодная подборка журнала Physics of Fluids
- Gallery of fluid dynamics.
- Небольшая подборка Fluid dynamics picture gallery
Если кто еще знает интересные ссылки, поделитесь.
[Комментарии на Элементах]
6 августа 2007 г.
Вычисление роста жирафа из первых принципов
Какая замечательная статья появилась сегодня в архиве: The height of a Giraffe (кстати, автор известный астрофизик). В этой статье приводится оценка максимального роста живого дышащего существа на типичной обитаемой планете.
Ответ, полученный автором: h = a0*γ0.3, где a0 это боровский радиус, а γ -- во сколько раз электрическая сила между двумя протонами больше гравитационной. Численно, h примерно равно 3,6 метра.
Там есть еще и другие оценки, в общем, веселое чтиво :)
Единая теория всего уже, можно сказать, на подходе.
[Комментарии на Элементах]
Ответ, полученный автором: h = a0*γ0.3, где a0 это боровский радиус, а γ -- во сколько раз электрическая сила между двумя протонами больше гравитационной. Численно, h примерно равно 3,6 метра.
Там есть еще и другие оценки, в общем, веселое чтиво :)
Единая теория всего уже, можно сказать, на подходе.
[Комментарии на Элементах]
29 июля 2007 г.
Лазерная запись на магнитные носители
Листая последние статьи из Phys. Rev. Letters, наткнулся на занятную статью All-Optical Magnetic Recording with Circularly Polarized Light (препринт статьи свободно доступен на странице одного из авторов). Хотел было написать новость, но потом увидел, что эта работа уже месяц назад прошла по многим сайтам (см. например, текст на CNews, на iXBT на Радио-свобода). И подана эта новость была, разумеется, с большими искажениями. ("Разумеется", это потому что никто ж не читал саму статью -- все переписывали в меру своего понимания вольное изложение из англоязычных источников, которые тоже саму статью вряд ли не видели в глаза, а основывались лишь на интервью с авторами.)
Практически все подали новость так, словно побит рекорд записи информации на жесткий диск. Это совершенно неверно. Удалось сделать совсем другое: уменьшить время записи одного бита на магнитной пленке с нескольких пикосекунд до 40 фемтосекунд. Причем осуществить это удалось без использования внешних магнитных полей -- только лазерным импульсом; в этом состоит научная новизна и ценность работы.
К скорости записи информации (т.е. сколько бит в секунду можно писать на ленту) это пока не имеет прямого отношения. В самом эксперименте импульсный лазер работал с частотой 1 кГц, так что больше 1 кбит в секунду этот эксперимент в принципе не мог ничего записать. Для того, чтоб писать со скоростью 1 Тбит в секунду (вот тогда можно говорить о стократных рекордах и о революции в записи данных), надо в миллиард раз увеличить частоту импульсов, т.е. в миллиард раз увеличить мощность лазера. Учитывая, что сейчас требуется порядка микроджоуля на один акт переключения, для этого потребуется мегаваттный лазер, сфокусированного прямехонько на плату жесткого диска. Сурово, не так ли?
На самом деле эта технология вообще вряд ли сгодится для жестких дисков. Скорее всего, она пойдет для магнитных лент. Во-первых, в этом случае нет необходимости механически перемещать саму головку, знай себе, протягивай ленту со скоростью в несколько километров в секунду и всё :)
А во вторых, автоматически ршается задача охлаждения магнитной ленты.
(Кстати, нагрев неизбежен, он является ключевым фактором самой технологии, поскольку луч вначале нагревает пятно почти до точки Кюри, где резко повышается магнитная восприимчивость, а затем поворачиает намагниченность.)
Ну и кроме этого для реального применения нужно существенно, на порядки, уменьшить размер пятна. Хотя непонятно, можно ли сделать существенно меньше микрона -- мешает дифракционный предел.
В общем, несмотря на прекрасный экспериментальный результат, надо понимать, что в теперешнем виде эта методика к современным информационным технологиям пока не относится. Однако при дальнейшем ее усовершенствовании можно будет в определенных ситуациях побить предыдущие рекорды.
А если вернуться их технологий в науку, то эта работа на самом деле задала больше вопросов, чем дала ответов. Потому что пока неясно, как за такое короткое время лазерный импульс с такой высокой степенью надежности передает направление своей полярзации магнитному домену. Т.е. может это через 10 лет будет работать у вас дома, но сейчас этим пока занимаются теоретики и экспериментаторы.
Кстати, справедливости ради стоит отметить, что CNews впоследствии написала новую заметку, где привела некоторые технические данные эксперимента.
[Комментарии на Элементах]
Практически все подали новость так, словно побит рекорд записи информации на жесткий диск. Это совершенно неверно. Удалось сделать совсем другое: уменьшить время записи одного бита на магнитной пленке с нескольких пикосекунд до 40 фемтосекунд. Причем осуществить это удалось без использования внешних магнитных полей -- только лазерным импульсом; в этом состоит научная новизна и ценность работы.
К скорости записи информации (т.е. сколько бит в секунду можно писать на ленту) это пока не имеет прямого отношения. В самом эксперименте импульсный лазер работал с частотой 1 кГц, так что больше 1 кбит в секунду этот эксперимент в принципе не мог ничего записать. Для того, чтоб писать со скоростью 1 Тбит в секунду (вот тогда можно говорить о стократных рекордах и о революции в записи данных), надо в миллиард раз увеличить частоту импульсов, т.е. в миллиард раз увеличить мощность лазера. Учитывая, что сейчас требуется порядка микроджоуля на один акт переключения, для этого потребуется мегаваттный лазер, сфокусированного прямехонько на плату жесткого диска. Сурово, не так ли?
На самом деле эта технология вообще вряд ли сгодится для жестких дисков. Скорее всего, она пойдет для магнитных лент. Во-первых, в этом случае нет необходимости механически перемещать саму головку, знай себе, протягивай ленту со скоростью в несколько километров в секунду и всё :)
А во вторых, автоматически ршается задача охлаждения магнитной ленты.
(Кстати, нагрев неизбежен, он является ключевым фактором самой технологии, поскольку луч вначале нагревает пятно почти до точки Кюри, где резко повышается магнитная восприимчивость, а затем поворачиает намагниченность.)
Ну и кроме этого для реального применения нужно существенно, на порядки, уменьшить размер пятна. Хотя непонятно, можно ли сделать существенно меньше микрона -- мешает дифракционный предел.
В общем, несмотря на прекрасный экспериментальный результат, надо понимать, что в теперешнем виде эта методика к современным информационным технологиям пока не относится. Однако при дальнейшем ее усовершенствовании можно будет в определенных ситуациях побить предыдущие рекорды.
А если вернуться их технологий в науку, то эта работа на самом деле задала больше вопросов, чем дала ответов. Потому что пока неясно, как за такое короткое время лазерный импульс с такой высокой степенью надежности передает направление своей полярзации магнитному домену. Т.е. может это через 10 лет будет работать у вас дома, но сейчас этим пока занимаются теоретики и экспериментаторы.
Кстати, справедливости ради стоит отметить, что CNews впоследствии написала новую заметку, где привела некоторые технические данные эксперимента.
[Комментарии на Элементах]
28 июля 2007 г.
Общая тенденция и резкие отклонения
В разговорах про глобальные климатические изменения люди часто смешивают две разные вещи: общую тенденцию и резкие локальные отклонения.
Типичный пример -- когда особо жаркий сезон считается в массовом сознании прямым проявлением глобального потепления. Казалось бы, это ж хорошо, когда люди видят климатические изменения своими глазами, значит они будут верить ученым. Нет, это не хорошо. Потому что особо холодная зима будет восприниматься таким же сильным аргументом против потепления (на эту тему есть даже карикатуры). Более того, если кто-то удосужится посмотреть на числа (климатологи обещают глобальное потепление на 2-3 градуса через сто лет, и это считается почти катастрофой), то ему это может показаться смешным -- "ну подумаешь, всего-то на какие-то три градуса больше! А они кричат, катастрофа, катастрофа. Обманывают, небось деньги хотят себе выбить и все."
На самом деле, конечно, в климате есть внутренняя переменчивость. Даже если бы глобальная температура оставалась постоянной, то аномально жаркие и аномально холодные сезоны в глобальном масштабе все равно случались бы. А если смотреть на региональный климат, то там амплитуда естественной переменчивости возросла бы еще в несколько раз. Это всё значит, что в региональном масштабе повышение или понижение температуры, скажем, на 10 градусов относительно средневекового значения в этот же сезон, например, в течение месяца вполне регулярно может происходить где-нибудь на Земле. Поэтому сам по себе такой выброс ни о чем не говорит.
Другое дело, если увеличивается частота аномальных сезонов или аномальных погодных условий в каком-то большом регионе (например, во всей Европе или во всей Северной Америке). Вот тут есть предмет для анализа. Скажем, в последние годы в Европе уже было две мощных тепловых волны на целый сезон. Это аномально жаркое лето 2003 года и аномально теплая осень 2006-зима 2007 года (которая считается самой теплой по крайней мере за последние 500 лет). Считается, что причины обоих эпизодов одинаковые -- мощный наплыв субтропических воздушных масс. Возникает вопрос, свидетельствует ли это об увеличении частоты аномальных погодных ситуаций? Связана ли это увеличение частоты с медленной общей тенденцией?
Однозначного ответа на эти вопросы, насколько я понимаю, пока нет. Конечно, существует "очевидный" источник увеличения частоты очень редких событий, если среднее значение чуть сдвинулось в сторону (особенно, при гауссовом распределении вероятностей). Однако моделирования показывают, что один лишь этот очевидный источник не может привести к существенному увеличению частоты редких событий на масштабе в 10-20 лет.
Возникает тогда другой вопрос: может быть, глобальные изменения касаются не только смещения "среднего", но и изменяют функцию распределения сезонов по "аномальности"? Т.е. может быть они меняют и амплитуду сезонной и региональной переменчивости?
Общий ответ такой: да, кое-где и кое в чем меняют, но во всем или нет -- пока неизвестно.
Например, моделирования показывают, что некоторые засушливые районы станут более засушливыми при небольшом повышении глобальной температуры, это уменьшит растительность, приведет к опустыниванию, а значит, усилит суточные и сезонные перепады температуры. Это пример одной из многочисленных петель обратной связи в климате. В результате климатические изменения в данном регионе будут усилены по сравнению с глобальными в несколько раз. Но делать вывод на основании этого, что жара 2003 года стала результатом деятельности человека напрямую нельзя.
Это я к чему. Сейчас вот в Англии продолжается мощное наводнение. А несколько дней назад в Nature появилась статья, в которой объявляется, что на масштабе в 75 лет обнаружено влияние человека на широтное распределение осадков. В северных тропиках среднегодовое количество осадков медленно понижается, а в высоких северных широтах -- растет.
А сейчас вот прочитал новость, в которой журналисты свели вместе эти две вещи и фактически заставили читателя думать, что в наводнении в Англии виноват человек. (Ладно, если бы журналисты это объявили от себя; так ведь они приводят ссылки на научную статьи, и тем самым заставляют читателей верить своим словам.)
Очевидно, что такой вывод ниоткуда не следует. Если посмотреть на данные, приведенные в статье, то видно, что вариации из года в год пока что превышают суммарный эффект накопленный за 75 лет.
Кстати, увеличивается ли частота редких по силе наводнений и засух, в этой статье не говорится. Вообще, надо почитать, что по этому поводу сказано в последнем отчете IPCC.
PS
Перечитал и мне показалось, что текст можно понять так, словно я тут пытаюсь убедить, что человек мало влияет на климат. Вовсе нет. Уже установлено вляние человека на хим. состав атмосферы, температуру воздуха, давления на уровне моря, высоту тропопаузы и т.д. Моделирования показывают, что если все так будет продолжаться, то (1) скоро во многих регионах начнутся серьезные экологические изменения, и (2) повышается вероятность резкого запуска сильных природных механизмов, меняющих климат (например, перестроится течение Гольфстрим).
Речь идет о том, что данные (пока?) не позволяют связывать единичные аномальные события с медленными тенденциями. Ученые это понимают, а массовый читатель -- нет.
[Комментарии на Элементах]
Типичный пример -- когда особо жаркий сезон считается в массовом сознании прямым проявлением глобального потепления. Казалось бы, это ж хорошо, когда люди видят климатические изменения своими глазами, значит они будут верить ученым. Нет, это не хорошо. Потому что особо холодная зима будет восприниматься таким же сильным аргументом против потепления (на эту тему есть даже карикатуры). Более того, если кто-то удосужится посмотреть на числа (климатологи обещают глобальное потепление на 2-3 градуса через сто лет, и это считается почти катастрофой), то ему это может показаться смешным -- "ну подумаешь, всего-то на какие-то три градуса больше! А они кричат, катастрофа, катастрофа. Обманывают, небось деньги хотят себе выбить и все."
На самом деле, конечно, в климате есть внутренняя переменчивость. Даже если бы глобальная температура оставалась постоянной, то аномально жаркие и аномально холодные сезоны в глобальном масштабе все равно случались бы. А если смотреть на региональный климат, то там амплитуда естественной переменчивости возросла бы еще в несколько раз. Это всё значит, что в региональном масштабе повышение или понижение температуры, скажем, на 10 градусов относительно средневекового значения в этот же сезон, например, в течение месяца вполне регулярно может происходить где-нибудь на Земле. Поэтому сам по себе такой выброс ни о чем не говорит.
Другое дело, если увеличивается частота аномальных сезонов или аномальных погодных условий в каком-то большом регионе (например, во всей Европе или во всей Северной Америке). Вот тут есть предмет для анализа. Скажем, в последние годы в Европе уже было две мощных тепловых волны на целый сезон. Это аномально жаркое лето 2003 года и аномально теплая осень 2006-зима 2007 года (которая считается самой теплой по крайней мере за последние 500 лет). Считается, что причины обоих эпизодов одинаковые -- мощный наплыв субтропических воздушных масс. Возникает вопрос, свидетельствует ли это об увеличении частоты аномальных погодных ситуаций? Связана ли это увеличение частоты с медленной общей тенденцией?
Однозначного ответа на эти вопросы, насколько я понимаю, пока нет. Конечно, существует "очевидный" источник увеличения частоты очень редких событий, если среднее значение чуть сдвинулось в сторону (особенно, при гауссовом распределении вероятностей). Однако моделирования показывают, что один лишь этот очевидный источник не может привести к существенному увеличению частоты редких событий на масштабе в 10-20 лет.
Возникает тогда другой вопрос: может быть, глобальные изменения касаются не только смещения "среднего", но и изменяют функцию распределения сезонов по "аномальности"? Т.е. может быть они меняют и амплитуду сезонной и региональной переменчивости?
Общий ответ такой: да, кое-где и кое в чем меняют, но во всем или нет -- пока неизвестно.
Например, моделирования показывают, что некоторые засушливые районы станут более засушливыми при небольшом повышении глобальной температуры, это уменьшит растительность, приведет к опустыниванию, а значит, усилит суточные и сезонные перепады температуры. Это пример одной из многочисленных петель обратной связи в климате. В результате климатические изменения в данном регионе будут усилены по сравнению с глобальными в несколько раз. Но делать вывод на основании этого, что жара 2003 года стала результатом деятельности человека напрямую нельзя.
Это я к чему. Сейчас вот в Англии продолжается мощное наводнение. А несколько дней назад в Nature появилась статья, в которой объявляется, что на масштабе в 75 лет обнаружено влияние человека на широтное распределение осадков. В северных тропиках среднегодовое количество осадков медленно понижается, а в высоких северных широтах -- растет.
А сейчас вот прочитал новость, в которой журналисты свели вместе эти две вещи и фактически заставили читателя думать, что в наводнении в Англии виноват человек. (Ладно, если бы журналисты это объявили от себя; так ведь они приводят ссылки на научную статьи, и тем самым заставляют читателей верить своим словам.)
Очевидно, что такой вывод ниоткуда не следует. Если посмотреть на данные, приведенные в статье, то видно, что вариации из года в год пока что превышают суммарный эффект накопленный за 75 лет.
Кстати, увеличивается ли частота редких по силе наводнений и засух, в этой статье не говорится. Вообще, надо почитать, что по этому поводу сказано в последнем отчете IPCC.
PS
Перечитал и мне показалось, что текст можно понять так, словно я тут пытаюсь убедить, что человек мало влияет на климат. Вовсе нет. Уже установлено вляние человека на хим. состав атмосферы, температуру воздуха, давления на уровне моря, высоту тропопаузы и т.д. Моделирования показывают, что если все так будет продолжаться, то (1) скоро во многих регионах начнутся серьезные экологические изменения, и (2) повышается вероятность резкого запуска сильных природных механизмов, меняющих климат (например, перестроится течение Гольфстрим).
Речь идет о том, что данные (пока?) не позволяют связывать единичные аномальные события с медленными тенденциями. Ученые это понимают, а массовый читатель -- нет.
[Комментарии на Элементах]
14 июля 2007 г.
Простота и сложность
Пост Игоря Шутяева в соседней дискуссии про "простоту и пестроту" напомнил мне об одном утверждении, которое я вычитал в каком-то математическом тексте.
Там говорилось, что в математике есть, говоря очень общо, две стратегии получения нетривиальных результатов.
В первом способе вся сложность -- в длинных вычислениях; во втором способе вся трудность спрятана в характеристиках объекта, который вы изобретаете.
Чтоб не выглядело голословным, приведу пример. Есть такая теорема, называется малая теорема Ферма. Пусть p простое число, а n произвольное целое число. Тогда np-n делится на p.
Её в общем-то можно доказать в лоб, расписывая np как (1+1+...+1)p, разлагая на отдельные слагаемые и используя свойства биномиальных коэффициентов. Но с непривычки это большая морока! Однако если знать некоторые элементарные свойства теории (конечных) групп, типа порядка, подгрупп, орбит и т.п., то эта теорема становится почти тривиальной.
Т.е. умножение и сложение целых чисел -- очень простая наука, но чтоб с помощью лишь этого доказать малую теорему Ферма, придется попотеть. И от простоты в конце концов ничего не останется. А вот в теоретико-групповом способе доказательства вся внутренняя структура числа np-n, вся трудность спрятана в понятие мультипликативной группы вычетов по модулю p. Одно лишь построение этого объекта и понимание его свойств сразу приводит к интересным результатам. Но надо преодолеть барьер - сначала выучить основы теории групп.
Так вот, я это всё к тому, что в теоретической физике эти две стратегии получения новых результатов тоже прослеживаются (хотя, вероятно, не всё ими исчерпывается).
Можно стартовать с очень простых (по математической форме) уравнений, но по мере их решения будет возрастать вычислительная сложность. Так что необыкновенная простота формулы F=ma имеется только до того, как ты начал реально её использовать в нетривиальных ситуациях. Например в небесной механике, как правильно заметил Игорь Шутяев, никакой простотой и не пахнет.
С другой стороны, ту же механику можно строить и из вариационного принципа. Понять в деталях саму его формулировку для человека, не проходившего хотя бы годовой курс высшей математики (чем бы это ни было) и механики, очень трудно. Какая тут простота, если уже само понятие очень сложное? Так вот, простота начинается когда этот принцип начинаешь применять для получения результатов. Она заключается в том, что даже задачи в сложных ситуациях решаются примерно так же легко, как и простейшая задачка движения одной материальной точки в потенциале.
Вот эта простота -- гораздо более фундаментальная и гораздо более полезная простота.
Еще один пример этих двух подходов есть в книжке Фейнмана "КЭД -- странная теория света и вещества". Он говорит, что непривычные квантовые явления могут быть легко описаны на языке комплексных волновых функций и уравнения Шредингера, но если вы не хотите разбираться с этими математическими понятиями, то можно просто "поиграть в стрелочки" -- правда вывод тех же результатов (точнее, самых простых из них) будет несравненно более длинным.
Вообще, примеров можно приводить много. Например, те же квазичастицы -- тоже переход от простейших атомов к новым, более абстрактным (и на первый взгляд, более сложным!) степеням свободы. Но зато явления, наблюдаемые, например, в металлах, в жидком гелии и т.д., выражаются в терминах квазичастиц несравненно более простым способом.
Или вот пример из буквально сегодняшней физики. Есть теория КХД, а есть ее N=4 суперсимметричное обобщение. Переход к суперсимметрии резко повышает начальную сложность конструкции. Но как только эта сложность преодолена, то становится видно, что эта теория очень простая, гораздо проще самой КХД (это потому что в ней константа связи становится не бегущей, а фиксированной, т.е. появляется точная масштабная инвариантность; кроме того, у нее есть AdS/CFT соответствие, помогающее изучать рассяение в режиме сильной связи). Понимание этой теории даст, вероятно, ключ к лучшему пониманию и КХД.
[Комментарии на Элементах]
Там говорилось, что в математике есть, говоря очень общо, две стратегии получения нетривиальных результатов.
- Либо вы берет простые объекты и манипулируете с ними сложным образом,
- либо бы строите новый сложный объект, описываете его свойства, и тогда даже простые манипуляции с этим объектом могут привести к нетривиальным результатам.
В первом способе вся сложность -- в длинных вычислениях; во втором способе вся трудность спрятана в характеристиках объекта, который вы изобретаете.
Чтоб не выглядело голословным, приведу пример. Есть такая теорема, называется малая теорема Ферма. Пусть p простое число, а n произвольное целое число. Тогда np-n делится на p.
Её в общем-то можно доказать в лоб, расписывая np как (1+1+...+1)p, разлагая на отдельные слагаемые и используя свойства биномиальных коэффициентов. Но с непривычки это большая морока! Однако если знать некоторые элементарные свойства теории (конечных) групп, типа порядка, подгрупп, орбит и т.п., то эта теорема становится почти тривиальной.
Т.е. умножение и сложение целых чисел -- очень простая наука, но чтоб с помощью лишь этого доказать малую теорему Ферма, придется попотеть. И от простоты в конце концов ничего не останется. А вот в теоретико-групповом способе доказательства вся внутренняя структура числа np-n, вся трудность спрятана в понятие мультипликативной группы вычетов по модулю p. Одно лишь построение этого объекта и понимание его свойств сразу приводит к интересным результатам. Но надо преодолеть барьер - сначала выучить основы теории групп.
Так вот, я это всё к тому, что в теоретической физике эти две стратегии получения новых результатов тоже прослеживаются (хотя, вероятно, не всё ими исчерпывается).
Можно стартовать с очень простых (по математической форме) уравнений, но по мере их решения будет возрастать вычислительная сложность. Так что необыкновенная простота формулы F=ma имеется только до того, как ты начал реально её использовать в нетривиальных ситуациях. Например в небесной механике, как правильно заметил Игорь Шутяев, никакой простотой и не пахнет.
С другой стороны, ту же механику можно строить и из вариационного принципа. Понять в деталях саму его формулировку для человека, не проходившего хотя бы годовой курс высшей математики (чем бы это ни было) и механики, очень трудно. Какая тут простота, если уже само понятие очень сложное? Так вот, простота начинается когда этот принцип начинаешь применять для получения результатов. Она заключается в том, что даже задачи в сложных ситуациях решаются примерно так же легко, как и простейшая задачка движения одной материальной точки в потенциале.
Вот эта простота -- гораздо более фундаментальная и гораздо более полезная простота.
Еще один пример этих двух подходов есть в книжке Фейнмана "КЭД -- странная теория света и вещества". Он говорит, что непривычные квантовые явления могут быть легко описаны на языке комплексных волновых функций и уравнения Шредингера, но если вы не хотите разбираться с этими математическими понятиями, то можно просто "поиграть в стрелочки" -- правда вывод тех же результатов (точнее, самых простых из них) будет несравненно более длинным.
Вообще, примеров можно приводить много. Например, те же квазичастицы -- тоже переход от простейших атомов к новым, более абстрактным (и на первый взгляд, более сложным!) степеням свободы. Но зато явления, наблюдаемые, например, в металлах, в жидком гелии и т.д., выражаются в терминах квазичастиц несравненно более простым способом.
Или вот пример из буквально сегодняшней физики. Есть теория КХД, а есть ее N=4 суперсимметричное обобщение. Переход к суперсимметрии резко повышает начальную сложность конструкции. Но как только эта сложность преодолена, то становится видно, что эта теория очень простая, гораздо проще самой КХД (это потому что в ней константа связи становится не бегущей, а фиксированной, т.е. появляется точная масштабная инвариантность; кроме того, у нее есть AdS/CFT соответствие, помогающее изучать рассяение в режиме сильной связи). Понимание этой теории даст, вероятно, ключ к лучшему пониманию и КХД.
[Комментарии на Элементах]
30 июня 2007 г.
Негравитация
Любителям всяческой экзотики рекомендую свежую статью arXiv:0706.3898, "Ungravity and Its Possible Test". Это коротенькая работа про еще одну возможность, которую могут реализовать элементарные нечастицы. А именно -- можно построить такую модель с нечастицами, в которой они порождают новую силу, пропорциональную массе тел. Т.е. приводят к добавкам в закон всемирного тяготения, и эти добавки могут оказаться очень необычными.
Теперь чуть подробнее.
Нечастицы -- это некие степени свободы, которые могут возникать в эффективных квантовополевых теориях. Отличительная особенность этих объектов -- их масштабная инвариантность; т.е. например, пропагатор нечастицы не содержит никакого параметра типа массы или ширины, а просто является степенной функцией квадрата импульса. Причем показатель этой степени не обязан быть целым числом -- из-за этого как раз и появляются необычные эффекты.
Поскольку нечастицы появляются в контексте эффективных теорий поля, их взаимодействие нечастиц с обычным веществом при низких энергиях описывается операторами, подавленными множителем (E/M)d, где E -- типичная энергия реакции, M -- энергетический масштаб рассматриваемой эффективной теории поля. Так вот, значение d тоже может быть дробным, и это тоже приводит к интересным эффектам.
В данной работе авторы предположили, что такой эффективный оператор может быть не скалярным, а тензорным, а значит он, в принципе, может быть связан с тензором энергии импульса (гравитация, напомню, тоже обеспечивается через связь с тензором энергии-импульса). А раз так, то между двумя гравитирующими телами может возникнуть новая сила, так же пропорциональная массе, но хитро ведущая себя с расстоянием. Она даст добавку в закон всемирного тяготения (которую авторы и назвали негравитацией), которая будет спадать с расстоянием по степенному закону, но вот показатель этой степени может быть дробным.
Именно благодаря этой особенности можно, в принципе, различить отклонения от закона всемирного тяготения на малых расстояниях за счет дополнительных измерений и за счет негравитации. Если конечно кто-нибудь эти отклонения найдет, в чем я лично сомневаюсь :)
На самом деле мне вообще непонятна осмысленность этих упражнений.
Подавляющее большинство статей в этойопупеи эпопеи про нечастицы вообще не задается вопросом, откуда такие объекты могут взяться; им главно посчитать какие-нибудь последствия. Только в некоторых статьях, например, arXiv:0705.3049, обсуждается возможное происхождение таких объектов. Но опять же, пока не доказано, что в какой-то эффективной теории поля такие объекты появляются естественными образом, серьезно о них говорить не приходится. Но, разумеется, если это пока не запрещено экспериментом, то считать можно всё, что душе угодно.
[Комментарии на Элементах]
Теперь чуть подробнее.
Нечастицы -- это некие степени свободы, которые могут возникать в эффективных квантовополевых теориях. Отличительная особенность этих объектов -- их масштабная инвариантность; т.е. например, пропагатор нечастицы не содержит никакого параметра типа массы или ширины, а просто является степенной функцией квадрата импульса. Причем показатель этой степени не обязан быть целым числом -- из-за этого как раз и появляются необычные эффекты.
Поскольку нечастицы появляются в контексте эффективных теорий поля, их взаимодействие нечастиц с обычным веществом при низких энергиях описывается операторами, подавленными множителем (E/M)d, где E -- типичная энергия реакции, M -- энергетический масштаб рассматриваемой эффективной теории поля. Так вот, значение d тоже может быть дробным, и это тоже приводит к интересным эффектам.
В данной работе авторы предположили, что такой эффективный оператор может быть не скалярным, а тензорным, а значит он, в принципе, может быть связан с тензором энергии импульса (гравитация, напомню, тоже обеспечивается через связь с тензором энергии-импульса). А раз так, то между двумя гравитирующими телами может возникнуть новая сила, так же пропорциональная массе, но хитро ведущая себя с расстоянием. Она даст добавку в закон всемирного тяготения (которую авторы и назвали негравитацией), которая будет спадать с расстоянием по степенному закону, но вот показатель этой степени может быть дробным.
Именно благодаря этой особенности можно, в принципе, различить отклонения от закона всемирного тяготения на малых расстояниях за счет дополнительных измерений и за счет негравитации. Если конечно кто-нибудь эти отклонения найдет, в чем я лично сомневаюсь :)
На самом деле мне вообще непонятна осмысленность этих упражнений.
Подавляющее большинство статей в этой
[Комментарии на Элементах]
27 июня 2007 г.
Основы палеоклиматологии
Заинтересовавшись климатологией, и в частности, палеоклиматом, я взял в библиотеке книжку R.S. Bradley, "Paleoclimatology" (1999 года издания), которую теперь почитываю в свободное время.
С одной стороны, это серьезная монография (одна лишь библиография занимает 80 страниц!), но с другой стороны, вводная, предназначенная для тех, кто не является специалистом ни в одном из разделов климатологии. В ней упор делается на довольно подробном описании "азбучных" вещей: самые разные методы датировки, анализ кернов льдов, морских отложений, континентальных наносов и т.д. Для каждого метода вначале описывается принцип (физический, биологический и т.д.), затем связанные с ним погрешности и неопределенности, затем приводятся имеющиеся данные и рассказывается, что можно из них почерпнуть. Очень интересно видеть, как одно и то же событие в палеоклимате прослеживается в самых разных данных, как из этих данных вырисовывается последовательность климатических изменений, какие сложные цепочки обратных связей есть в глобальном климате.
В общем, мне кажется, некий набор конкретных климатических знаний должен входить в естественнонаучный минимум, в общую культуру человека. Хотя бы для того, чтобы чувствовать элементарные зависимости и понимать то, о чем говорится в отчетах климатологов (например, я уже гораздо лучше понимаю новости Алексея Гилярова). Забавно то, что этот базовый материал оказался даже и нескучным вовсе.
А если кто хочет материал подоступнее, покороче и поновее, то очень рекомендую полный отчет IPCC, Working group 1. Это 433-страничный документ, раздитый на несколько файлов по главам. Я себе распечатал 60-страничную главу про палеоклимат, почитаю. А для совсем простого чтения рекомендую главу с ответами на часто задаваемые вопросы.
[Комментарии на Элементах]
С одной стороны, это серьезная монография (одна лишь библиография занимает 80 страниц!), но с другой стороны, вводная, предназначенная для тех, кто не является специалистом ни в одном из разделов климатологии. В ней упор делается на довольно подробном описании "азбучных" вещей: самые разные методы датировки, анализ кернов льдов, морских отложений, континентальных наносов и т.д. Для каждого метода вначале описывается принцип (физический, биологический и т.д.), затем связанные с ним погрешности и неопределенности, затем приводятся имеющиеся данные и рассказывается, что можно из них почерпнуть. Очень интересно видеть, как одно и то же событие в палеоклимате прослеживается в самых разных данных, как из этих данных вырисовывается последовательность климатических изменений, какие сложные цепочки обратных связей есть в глобальном климате.
В общем, мне кажется, некий набор конкретных климатических знаний должен входить в естественнонаучный минимум, в общую культуру человека. Хотя бы для того, чтобы чувствовать элементарные зависимости и понимать то, о чем говорится в отчетах климатологов (например, я уже гораздо лучше понимаю новости Алексея Гилярова). Забавно то, что этот базовый материал оказался даже и нескучным вовсе.
А если кто хочет материал подоступнее, покороче и поновее, то очень рекомендую полный отчет IPCC, Working group 1. Это 433-страничный документ, раздитый на несколько файлов по главам. Я себе распечатал 60-страничную главу про палеоклимат, почитаю. А для совсем простого чтения рекомендую главу с ответами на часто задаваемые вопросы.
[Комментарии на Элементах]
25 июня 2007 г.
Северный Ледовитый океан задышал 18 миллионов лет назад
В Nature появилась занятная статья про историю глубинных вод Северного Ледовитого океана.
Суть такая.
Ключевым фактором, определяющим земной климат, как сейчас, так и в прошлом, является глобальный конвейер океанических течений. В этом конвейере самое важное и "хрупкое" место -- это образование холодных глубинных вод в Северной Атлантике и Северном Ледовитом океане. Теплое течение приносит из тропиков воду, она там остывает, испаряется, становится более соленой, ныряет на дно, обогащая придонные воды кислородом, и затем по дну возвращается назад. Этот процесс зависит от многих факторов, в том числе и от рельефа океанического дна. Но если история Атлантического океана в последние сто миллионов лет более-менее известна, то что происходило с Сев.Лед.океаном -- известно плохо из-за отсутствия данных.
Вообще, данные о климате на Земле в прошлом можно получать самыми разными способами. Если требуется заглянуть в прошлое на миллионы лет, то наиболее удобны керны (цилиндрические столбики пород) океанического дна, получаемые бурением. Теплые океаны бурят уже полвека, а вот до Северного Ледовитого добрались только недавно. В 2004 году был получен 428-метровый керн дна вблизи северного полюса, и сейчас вот публикуют результаты анализа этого керна.
В описываемой статье речь идет про 6-метровый кусочек (с 193 по 199 метров) керна, в котором происходят интересные вещи. Глубже этого места находятся отложения, бедные кислородом, выше -- богатые кислородом. Сам же этот кусочек состоит и большого числа чередующихся полосок то того, то другого. Поскольку отложения характеризуют общее состояние океана, то получается этот слой отвечает довольно краткому периоду перехода от застойного, бедного кислородом, озеро-подобного состояния в богатое кислородом, хорошо "проветриваемое" состояние. Этот переход, впрочем, произошел не одновременно, а сопровождался колебаниями туда-сюда.
Интересно, что удалось довольно точно датировать этот слой (~18,2 млн. лет назад), т.к. он содержит отложения специфических организмов, характерных именно для этой эпохи. Длительность периода (0,7 млн. лет) оценили просто по скорости накопления отложений.
Для того, чтобы разобраться с тем, что же случилось в то время, авторы построили модель изменения профиля океана за счет движения плит (десятки миллионов лет -- этот тот масштаб, когда плиты уже существенно смещались). И выяснили, что по всей видимости ключевым моментом стало открытие глубоководного пролива Фрама, проходящего по океанскому дну между Гренландией и Шпицбергеном. Этот пролив открыл глубоководное сообщение между Атлантическим и Северным Ледовитым океаном, т.е. включил его в конвейер и привел к эффективному перемешиванию вод.
Вообще, если посмотреть на карту этой области, то может показаться, что Северный Ледовитый океан и так прекрасно соединяется с Атлантическим через Баренцево море. На самом деле, это море очень мелкое, не более 500 метров, а для глубоких вод требуется пара километров.
Десятки миллионов лет назад Гренландия была существенно ближе к Европе, и тогда Северный Ледовитый океан был со всех сторон закрыт сушей или мелкими морями. Затем, когда открылся пролив Фрама, вначале узкий, через него пошла вода из Ледовитого океана (утверждается, что за счет простого гидростатического напора). Затем по мере расширения поток стал двунаправленный: в глубине поступала более соленая вода из Атлантики, а сверху вытекала менее соленая вода из Ледовитого океана.
Приток атлантических вод и обогатил кислородом глубины Ледовитого океана, поскольку внутри самого Ледовитого океана никакой особой глубинной конвекции не было. Однако из-за колебания уровня моря (порядка 15-30 метров в Миоцене) этот приток то исчезал, то появлялся вновь -- это и порождало полоски, то бедные, то богатые кислородом. И лишь когда пролив расширился достаточно (по оценкам авторов, 40-50 км уже хватит), там организовалась горизонтальная циркуляция вод. Приток атлантических вод стал бесперебойным и кроме того, не только глубинным, но и поверхностным. Это еще больше вовлекло Северный океан в глобальный конвейер и обогатило его кислородом. Так Северный Ледовитый океан задышал.
Авторы еще замечают, что этот момент примерно совпадает с так называемым климатическим оптимумом в среднем миоцене, но непонятно, какая связь между этими явлениями.
В Рунете уже есть несколько сообщений по этой работе (источником служит новость на Newscientist), но они, как водится, содержат ошибки (даже банальные переводческие -- например, никто так и не удосужился перевести Svalbard как Шпицберген). И еще не могу не поиздеваться над переводчиками. Как вам такая фраза:
Где у Северного Ледовитого океана южная часть? :) (на NewScientist написано: "...текут на юг через узкий пролив...")
Кстати, статья свободно доступна на домашней страничке одного из авторов (листайте вниз, последняя статья с гиперссылкой). В статье и в сопровождающих материалах есть красивые картинки :)
[Комментарии на Элементах]
Суть такая.
Ключевым фактором, определяющим земной климат, как сейчас, так и в прошлом, является глобальный конвейер океанических течений. В этом конвейере самое важное и "хрупкое" место -- это образование холодных глубинных вод в Северной Атлантике и Северном Ледовитом океане. Теплое течение приносит из тропиков воду, она там остывает, испаряется, становится более соленой, ныряет на дно, обогащая придонные воды кислородом, и затем по дну возвращается назад. Этот процесс зависит от многих факторов, в том числе и от рельефа океанического дна. Но если история Атлантического океана в последние сто миллионов лет более-менее известна, то что происходило с Сев.Лед.океаном -- известно плохо из-за отсутствия данных.
Вообще, данные о климате на Земле в прошлом можно получать самыми разными способами. Если требуется заглянуть в прошлое на миллионы лет, то наиболее удобны керны (цилиндрические столбики пород) океанического дна, получаемые бурением. Теплые океаны бурят уже полвека, а вот до Северного Ледовитого добрались только недавно. В 2004 году был получен 428-метровый керн дна вблизи северного полюса, и сейчас вот публикуют результаты анализа этого керна.
В описываемой статье речь идет про 6-метровый кусочек (с 193 по 199 метров) керна, в котором происходят интересные вещи. Глубже этого места находятся отложения, бедные кислородом, выше -- богатые кислородом. Сам же этот кусочек состоит и большого числа чередующихся полосок то того, то другого. Поскольку отложения характеризуют общее состояние океана, то получается этот слой отвечает довольно краткому периоду перехода от застойного, бедного кислородом, озеро-подобного состояния в богатое кислородом, хорошо "проветриваемое" состояние. Этот переход, впрочем, произошел не одновременно, а сопровождался колебаниями туда-сюда.
Интересно, что удалось довольно точно датировать этот слой (~18,2 млн. лет назад), т.к. он содержит отложения специфических организмов, характерных именно для этой эпохи. Длительность периода (0,7 млн. лет) оценили просто по скорости накопления отложений.
Для того, чтобы разобраться с тем, что же случилось в то время, авторы построили модель изменения профиля океана за счет движения плит (десятки миллионов лет -- этот тот масштаб, когда плиты уже существенно смещались). И выяснили, что по всей видимости ключевым моментом стало открытие глубоководного пролива Фрама, проходящего по океанскому дну между Гренландией и Шпицбергеном. Этот пролив открыл глубоководное сообщение между Атлантическим и Северным Ледовитым океаном, т.е. включил его в конвейер и привел к эффективному перемешиванию вод.
Вообще, если посмотреть на карту этой области, то может показаться, что Северный Ледовитый океан и так прекрасно соединяется с Атлантическим через Баренцево море. На самом деле, это море очень мелкое, не более 500 метров, а для глубоких вод требуется пара километров.
Десятки миллионов лет назад Гренландия была существенно ближе к Европе, и тогда Северный Ледовитый океан был со всех сторон закрыт сушей или мелкими морями. Затем, когда открылся пролив Фрама, вначале узкий, через него пошла вода из Ледовитого океана (утверждается, что за счет простого гидростатического напора). Затем по мере расширения поток стал двунаправленный: в глубине поступала более соленая вода из Атлантики, а сверху вытекала менее соленая вода из Ледовитого океана.
Приток атлантических вод и обогатил кислородом глубины Ледовитого океана, поскольку внутри самого Ледовитого океана никакой особой глубинной конвекции не было. Однако из-за колебания уровня моря (порядка 15-30 метров в Миоцене) этот приток то исчезал, то появлялся вновь -- это и порождало полоски, то бедные, то богатые кислородом. И лишь когда пролив расширился достаточно (по оценкам авторов, 40-50 км уже хватит), там организовалась горизонтальная циркуляция вод. Приток атлантических вод стал бесперебойным и кроме того, не только глубинным, но и поверхностным. Это еще больше вовлекло Северный океан в глобальный конвейер и обогатило его кислородом. Так Северный Ледовитый океан задышал.
Авторы еще замечают, что этот момент примерно совпадает с так называемым климатическим оптимумом в среднем миоцене, но непонятно, какая связь между этими явлениями.
В Рунете уже есть несколько сообщений по этой работе (источником служит новость на Newscientist), но они, как водится, содержат ошибки (даже банальные переводческие -- например, никто так и не удосужился перевести Svalbard как Шпицберген). И еще не могу не поиздеваться над переводчиками. Как вам такая фраза:
"Около 20 миллионов лет назад Северный Ледовитый океан представлял из себя большое озеро, чья пресная вода попадала в Атлантический океан через тонкий пролив в его южной части."
Где у Северного Ледовитого океана южная часть? :) (на NewScientist написано: "...текут на юг через узкий пролив...")
Кстати, статья свободно доступна на домашней страничке одного из авторов (листайте вниз, последняя статья с гиперссылкой). В статье и в сопровождающих материалах есть красивые картинки :)
[Комментарии на Элементах]
21 июня 2007 г.
Ускорение радиоактивных распадов
В свежем Phys.Rev.Letters появились сразу две интересные статьи про то, как ускорить распад нестабильной частицы.
В одной из них, Radioactive Decay Speedup at T=5 K: Electron-Capture Decay Rate of 7Be Encapsulated in C60, описываются новые эксперименты с ускорением распада бериллия-7 внутри фуллерена.
Идея, вкратце, в том, что этот распад происходит за счет захвата электрона ядром, и значит, если электронную плотность вблизи ядра повысить, то и распад случится быстрее, правда ненамного, на доли процента. Подробности см. в новости Искусственное ускорение ядерного распада.
В новой работе показано, что при низких температурах (5 кельвинов) ускорение распада получается больше, чем при комнатной -- аж полтора процента. Это число, конечно, невелико, но возможно когда-нибудь путем еще большего увеличения электронной плотности вблизи ядра удастся существенно ускорить распад. Кроме того, благодаря этому явлению можно и просто изучить, как меняется распределение электронов в допированном фуллерене в зависимости от температуры. Бериллий-7 в этом случае выступает в роли "подарка природы" -- готового инструмента для определения величины электронной плотности.
Вторая работа не экспериментальная, а теоретическая, зато там речь идет про ускорение распада мюона аж в десяток раз, Laser-Assisted Muon Decay.
В ней приводятся вычисления скорости распада мюона в поле сильного лазерного излучения. Вообще, тот факт, что в сильных внешних полях изменяются свойства частиц, известно давно. Например, в случае облучения электрона лазерным лучом электрон начинает мелко метаться в пространстве под действием электромагнитного поля в световой волне, причем чем мощнее лазер, тем сильнее мечется электрон.
Мюон, как известно, тяжелее электрона почти в 200 раз, и поэтому там, где электрон метался бы сильно, мюон лишь лениво двигается туда сюда. Однако мюон хочет распасться на электрон и пару нейтрино/антинейтрино, поэтому электрон -- виртуальный! -- как бы тоже есть в мюоне, но только он ждет возможности "актуализироваться" (это все условные картинки, визуализирующие формулы, так что не надо их воспринимать как отражение реальности). Так вот, этот виртуальный электрон чувствует поле лазерного луча; оно ему помогает высвободиться.
В результате когда поля достигают значений 10^6 В/см, время жизни мюона начинает катастрофически уменьшаться. Теперь осталось это проверить экспериментально.
[Комментарии на Элементах]
В одной из них, Radioactive Decay Speedup at T=5 K: Electron-Capture Decay Rate of 7Be Encapsulated in C60, описываются новые эксперименты с ускорением распада бериллия-7 внутри фуллерена.
Идея, вкратце, в том, что этот распад происходит за счет захвата электрона ядром, и значит, если электронную плотность вблизи ядра повысить, то и распад случится быстрее, правда ненамного, на доли процента. Подробности см. в новости Искусственное ускорение ядерного распада.
В новой работе показано, что при низких температурах (5 кельвинов) ускорение распада получается больше, чем при комнатной -- аж полтора процента. Это число, конечно, невелико, но возможно когда-нибудь путем еще большего увеличения электронной плотности вблизи ядра удастся существенно ускорить распад. Кроме того, благодаря этому явлению можно и просто изучить, как меняется распределение электронов в допированном фуллерене в зависимости от температуры. Бериллий-7 в этом случае выступает в роли "подарка природы" -- готового инструмента для определения величины электронной плотности.
Вторая работа не экспериментальная, а теоретическая, зато там речь идет про ускорение распада мюона аж в десяток раз, Laser-Assisted Muon Decay.
В ней приводятся вычисления скорости распада мюона в поле сильного лазерного излучения. Вообще, тот факт, что в сильных внешних полях изменяются свойства частиц, известно давно. Например, в случае облучения электрона лазерным лучом электрон начинает мелко метаться в пространстве под действием электромагнитного поля в световой волне, причем чем мощнее лазер, тем сильнее мечется электрон.
Мюон, как известно, тяжелее электрона почти в 200 раз, и поэтому там, где электрон метался бы сильно, мюон лишь лениво двигается туда сюда. Однако мюон хочет распасться на электрон и пару нейтрино/антинейтрино, поэтому электрон -- виртуальный! -- как бы тоже есть в мюоне, но только он ждет возможности "актуализироваться" (это все условные картинки, визуализирующие формулы, так что не надо их воспринимать как отражение реальности). Так вот, этот виртуальный электрон чувствует поле лазерного луча; оно ему помогает высвободиться.
В результате когда поля достигают значений 10^6 В/см, время жизни мюона начинает катастрофически уменьшаться. Теперь осталось это проверить экспериментально.
[Комментарии на Элементах]
8 июня 2007 г.
Документальный фильм про электрон
Сегодня при просмотре новостей взгляд буквально напоролся на вот это: Физики США сумели снять документальный фильм о движении отдельных электронов, который ссылается на ИТАР-ТАСС. Кроме этого в Рунете тот же текст появился на некоторых других сайтах, а также отдельное сообщение появилось и на сайте "Вокруг света" (В жидком гелии зафиксированы вихри). Поскольку я неравнодушно дышу на все, что мельче атома :), то не смог удержаться от комментария.
Начну с того, что текст ИТАР-ТАСС неправильный совершенно, и я надеюсь, это станет очевидным после моего объяснения. Такую ситуацию мы уже проходили: по-хорошему, надо разбирать и объяснять ошибочность чуть ли не каждой фразы, как это сделано в Анатомии одной новости, только времени это займет с десяток часов. Поэтому буду относительно краток :)
Во-первых, в описываемой новости следили не за электронами, а за пузырьками. Ну и по-хорошему, никакого видео там и не было. Скорость видеосъемки составляла 4 кадра в секунду, частота освещения короткой световой вспышкой 20 герц, вот и получалось, что на каждом кадре было несколько изображений пузырька, а на следующем кадре часто был уже другой пузырек (или вообще ничего).
Во-вторых, по большому счету, это есть всего лишь визуализация траектории частицы. Такой визуализацией траекторий электронов, протонов и других частиц физики занимаются уже почти век. По этой причине громкие слова о том, что-де впервые проследили за движением электрона, совершенно неверны. Впервые научились визуализировать пузырьки и жидком гелии -- это может быть, но и это надо понимать правильно. Дело в том, что судя по публикациям сами пузырьки с электроном внутри изучаются уже как минимум с десяток лет. Собственно, именно это физикам и нужно -- изучать, и не обязательно визуально. А тут их научились снимать на видеокамеру. В этом собственно и прогресс.
В-третьих, совершенно дикие фразы: "... считалось, что невозможно запечатлеть перемещения в пространстве отдельно выделенного электрона..." и затем "Но и невозможное оказалось преодолимым." За такие фразы надо бить по рукам, и я попробую объяснить, почему.
Неграмотная новость о научном исследовании приносит вред. Вред заключается в том, что читателю прямым текстом сообщают, что ученые занимают самопротиворечивыми вещами (типа "это считалось невозможным, но это сделали"). Или бессмыслицей (квантовая механика полна парадоксов и противоречий, и ученые, мол, сами не понимают то, что они изучают -- это вообще излюбленный штамп при описании квантовых явлений). Или занимаются никому не нужными детскими играми (смотрят на движение электронов). В результате из неграмотной новости читатель не видит никакого контекста (почти все конкретные работы -- лишь отдельные шажки на каком-то длинном пути), не видит никакой настоящей осмысленной цели, а видит лишь глупости, которыми балуются ученые. Более развернуто я про это уже писал в блогах: В чем вред от неправильных научно-популярных новостей, и заодно Не требуется быть всезнайкой.
Вот этот текст на ИТАР-ТАСС, растиражированный другими изданиями, как раз и подчеркивает: смотрите, какой лабудой занимаются физики.
В-четвертых, истинная цель исследования состояла вовсе не в "документальном фильме о движении электронов", а в разработке новой методики наблюдения за вихрями в сверхтекучем гелии. По-хорошему, тут надо сделать отступление про сверхтекучесть и трудности ее изучения, почему вихри в нем так интересны и т.д., но ладно, ограничусь только словами, что это большой и активный раздел физики квантовых конденсированных сред. Так вот, с экспериментальными методиками тут напряг, потому что гелий прозрачный, потому что сверхтекучесть -- хрупкое состояние, которое легко разрушить, поэтому визуализировать вихри трудно. Но можно -- это уже делалось другими методами, так что и тут слово "впервые" не годится. Однако эта методика довольно дешевая, потому ее надо развивать.
Исходно авторы хотели с помощью радиоактивного материала напустить много электронов, которые в своих пузырьках должны были рассесться вдоль вихрей и таким образом показать его форму. Этого пока не достигнуто, к этому они будут стремиться в будущих работах. Это и есть смысл этой деятельности. А пока что они просто сконструировали установку и погоняли видеокамеру без радиоактивного материала и обнаружили непонятно откуда взявшиеся электроны. (Они так и пишут -- мы не знаем, откуда они берутся).
Текст в "Вокруг света" более осмыслен, чем у ИТАР-ТАСС. По крайней мере, упор больше делается не на "документальном фильме про электрон", а на изучении вихрей (а это и есть конечная цель исследования). Но, конечно, ошибок и тут довольно много: вихри зафиксированы не впервые, открытие сделано не случайно, "следы взаимодействия электронов со средой" -- неправильно, сама интерпретация как наблюдение вихрей этим способом -- это пока только предположение, а не факт, и наконец совершенно неверная интерпретация волнообразного движения -- это вовсе не закручивание пузырька в потоке (сверхтекучая компонента не увлекает пузырек, на то она и сверхтекучая!), это его скольжение вдоль изогнутой оси (ось торнадо ведь тоже не всегда прямая). Плюс иллюстрация -- красивая, но сбивающая с толку.
В-пятых, возвращаясь к наблюдению электронов. На самом-то деле отдельные электроны уже 40 лет как наблюдаются невооруженным взглядом. Это стало возможно в 60-е годы в накопительных кольцах. Есть в сети очень захватывающий рассказ о том, как группа под руководством Бруно Тушека во Фраскати конструировала электронный ускоритель на встречных пучках (AdA:The First Electron-Positron Collider, pdf, 330 kb). Там рассказывается о том, как в первое время в накопительное кольцо впрыскивали буквально несколько электронов, и они там крутились, крутились, и время от времени высвечивали синхротронные фотоны. Можно было видеть, как мощность света растет или падает ступеньками, когда впрыскивается или уходит отдельный электрон. А в темноте можно было видеть (и сфотографировать на Polaroid) и свет от одного электрона. Это куда более прямой способ наблюдать за электронами.
Всем спасибо за внимание.
[Комментарии на Элементах]
Начну с того, что текст ИТАР-ТАСС неправильный совершенно, и я надеюсь, это станет очевидным после моего объяснения. Такую ситуацию мы уже проходили: по-хорошему, надо разбирать и объяснять ошибочность чуть ли не каждой фразы, как это сделано в Анатомии одной новости, только времени это займет с десяток часов. Поэтому буду относительно краток :)
Во-первых, в описываемой новости следили не за электронами, а за пузырьками. Ну и по-хорошему, никакого видео там и не было. Скорость видеосъемки составляла 4 кадра в секунду, частота освещения короткой световой вспышкой 20 герц, вот и получалось, что на каждом кадре было несколько изображений пузырька, а на следующем кадре часто был уже другой пузырек (или вообще ничего).
Во-вторых, по большому счету, это есть всего лишь визуализация траектории частицы. Такой визуализацией траекторий электронов, протонов и других частиц физики занимаются уже почти век. По этой причине громкие слова о том, что-де впервые проследили за движением электрона, совершенно неверны. Впервые научились визуализировать пузырьки и жидком гелии -- это может быть, но и это надо понимать правильно. Дело в том, что судя по публикациям сами пузырьки с электроном внутри изучаются уже как минимум с десяток лет. Собственно, именно это физикам и нужно -- изучать, и не обязательно визуально. А тут их научились снимать на видеокамеру. В этом собственно и прогресс.
В-третьих, совершенно дикие фразы: "... считалось, что невозможно запечатлеть перемещения в пространстве отдельно выделенного электрона..." и затем "Но и невозможное оказалось преодолимым." За такие фразы надо бить по рукам, и я попробую объяснить, почему.
Неграмотная новость о научном исследовании приносит вред. Вред заключается в том, что читателю прямым текстом сообщают, что ученые занимают самопротиворечивыми вещами (типа "это считалось невозможным, но это сделали"). Или бессмыслицей (квантовая механика полна парадоксов и противоречий, и ученые, мол, сами не понимают то, что они изучают -- это вообще излюбленный штамп при описании квантовых явлений). Или занимаются никому не нужными детскими играми (смотрят на движение электронов). В результате из неграмотной новости читатель не видит никакого контекста (почти все конкретные работы -- лишь отдельные шажки на каком-то длинном пути), не видит никакой настоящей осмысленной цели, а видит лишь глупости, которыми балуются ученые. Более развернуто я про это уже писал в блогах: В чем вред от неправильных научно-популярных новостей, и заодно Не требуется быть всезнайкой.
Вот этот текст на ИТАР-ТАСС, растиражированный другими изданиями, как раз и подчеркивает: смотрите, какой лабудой занимаются физики.
В-четвертых, истинная цель исследования состояла вовсе не в "документальном фильме о движении электронов", а в разработке новой методики наблюдения за вихрями в сверхтекучем гелии. По-хорошему, тут надо сделать отступление про сверхтекучесть и трудности ее изучения, почему вихри в нем так интересны и т.д., но ладно, ограничусь только словами, что это большой и активный раздел физики квантовых конденсированных сред. Так вот, с экспериментальными методиками тут напряг, потому что гелий прозрачный, потому что сверхтекучесть -- хрупкое состояние, которое легко разрушить, поэтому визуализировать вихри трудно. Но можно -- это уже делалось другими методами, так что и тут слово "впервые" не годится. Однако эта методика довольно дешевая, потому ее надо развивать.
Исходно авторы хотели с помощью радиоактивного материала напустить много электронов, которые в своих пузырьках должны были рассесться вдоль вихрей и таким образом показать его форму. Этого пока не достигнуто, к этому они будут стремиться в будущих работах. Это и есть смысл этой деятельности. А пока что они просто сконструировали установку и погоняли видеокамеру без радиоактивного материала и обнаружили непонятно откуда взявшиеся электроны. (Они так и пишут -- мы не знаем, откуда они берутся).
Текст в "Вокруг света" более осмыслен, чем у ИТАР-ТАСС. По крайней мере, упор больше делается не на "документальном фильме про электрон", а на изучении вихрей (а это и есть конечная цель исследования). Но, конечно, ошибок и тут довольно много: вихри зафиксированы не впервые, открытие сделано не случайно, "следы взаимодействия электронов со средой" -- неправильно, сама интерпретация как наблюдение вихрей этим способом -- это пока только предположение, а не факт, и наконец совершенно неверная интерпретация волнообразного движения -- это вовсе не закручивание пузырька в потоке (сверхтекучая компонента не увлекает пузырек, на то она и сверхтекучая!), это его скольжение вдоль изогнутой оси (ось торнадо ведь тоже не всегда прямая). Плюс иллюстрация -- красивая, но сбивающая с толку.
В-пятых, возвращаясь к наблюдению электронов. На самом-то деле отдельные электроны уже 40 лет как наблюдаются невооруженным взглядом. Это стало возможно в 60-е годы в накопительных кольцах. Есть в сети очень захватывающий рассказ о том, как группа под руководством Бруно Тушека во Фраскати конструировала электронный ускоритель на встречных пучках (AdA:The First Electron-Positron Collider, pdf, 330 kb). Там рассказывается о том, как в первое время в накопительное кольцо впрыскивали буквально несколько электронов, и они там крутились, крутились, и время от времени высвечивали синхротронные фотоны. Можно было видеть, как мощность света растет или падает ступеньками, когда впрыскивается или уходит отдельный электрон. А в темноте можно было видеть (и сфотографировать на Polaroid) и свет от одного электрона. Это куда более прямой способ наблюдать за электронами.
Всем спасибо за внимание.
[Комментарии на Элементах]
3 июня 2007 г.
Нетривиальные квантовые эффекты в биологии
Наткнулся в архиве на любопытную статью ArXiv:0705.1232, "Нетривиальные квантовые эффекты в биологии: скептическая точка зрения физиков". Это небольшая заметка (с очень хорошей библиографической подборкой), написанная для готовящегося к выпуску сборника статей "Квантовые аспекты жизни".
Первое впечатление, возникшее после её прочтения -- удивление тем, как много, оказывается, существует попыток "притянуть за уши" квантовые явления для функционирования биологических систем. Причем зачастую эти попытки во многом базируются на обычной неграмотности, поскольку уже простые оценки по порядку величины закрывают некоторые предложения. В этой статье терпеливо и довольно подробно объясняется — по-честному, по-физическому, — почему те или иные предложения либо неверны, либо сверхспекулятивны.
Вначале, чтобы не было недоразумения, авторы четко очерчивают предмет критики. Конечно, квантовые эффекты в молекулярной (!) биологии важны -- это и динамика возбуждения биомолекул, туннелирование протонов и электронов и т.д. (например, есть основания считать, что обоняние использует, кроме всего прочего, и резонансное туннелирование электронов в рецепторах). Это все "очевидные" — тривиальные — квантовые эффекты, и относятся они скорее не к биологии, а к молекулярной физике.
Утверждение авторов статьи состоит в том, что никаких предпосылок для более нетривиальных квантовых проявлений в живых системах нет.
Ниже перечислены некоторые из попыток привлечь квантовую механику в биологических системах и их критика авторами статьи.
1. Возникновение наследственности
С "наивно-химической" точки зрения возникновение живых (а точнее, скажем проще, размножающихся и адаптирующихся) систем кажется чрезвычайно маловероятным. (Этот аргумент, кстати, любят использовать и проповедники религии.) Как из таких простых начальных соединений могли возникнуть такие сложные и высоко специфические молекулы как, например, ДНК? Как природа "нашла" удобные молекулы для передачи наследственной информации?
При попытке ответить на этот вопрос возникло предложение "как-то приплести" квантовую механику -- ведь в ней можно осуществить "сверхэффективный квантовый перебор вариантов" и относительно быстро найти молекулы, удобные для передачи информации.
На самом деле, это лишь ничем не подкрепленное желание, не более того. Никаких конкретных механизмов возникновения в системе тенденции к возникновению химической реакции синтеза какой-то редчайшей молекулы никто не предложил. И более того, это пока и не требуется, поскольку спонтанное усложнение хим. состава происходит в определенных условиях само собой. Самоорганизация -- спонтанное возникновение относительно устойчивых структур, гораздо более сложных, чем можно было бы получить за то же время случайным конструированием -- хорошо известное в физике явление.
В дополнение к этому авторы отдельно обсуждают распространенное заблуждение, что якобы квантовый компьютер позволяет осуществить быстрый поиск в классической базе данных. Это неверно: быстрый поиск работает только в квантовой базе данных, т.е. база данных уже должна находится в когерентном состоянии. Если этого нет, то квантовый компьютер не дает никакого ускорения.
2. Туннелирование сквозь промежуточные формы
Другой вариант той же идеи: оптимизация естественного отбора при эволюции простейших форм жизни в более сложные.
Как известно, одно из первых возражений к дарвиновскому принципу естественного отбора состояло в том, что не наблюдаются промежуточные формы. Как природа умудряется пропустить их и сразу "слепить новое существо"?
Этот вопрос уже не является каким-то принципиальным препятствием для современного эволюционного учения, но есть и более экзотические предложения, основанные, в частности, на том же квантовом поиске.
Пропоненты "квантовой идеи" говорят, что этот процесс можно представить как квантовый поиск живучей мутации. Однако -- кроме очевидного возражения о квантовой когерентности -- возникает и такой вопрос: непонятно, что именно должна искать природа. Мутация закрепится, если она окажется более приспособлена к выживанию во внешних условиях. Но на выживаемость надо проверить хотя бы пару-тройку поколений -- только после этого можно сказать, удачная мутация или нет. Т.е. получается, нужно чтоб квантовая когерентность поддерживалась не только в течение жизни одной особи, но и сохранялась между потомками. Но поскольку они будут взаимодействовать с окружающим миром, то это кажется совершенно невероятным.
3. Квантовый мозг
Есть попытки описать деятельность мозга как работу некоторого "квантового компьютера". Предполагается, что нейроны играют роль кубитов, между которыми поддерживается квантовая когерентность. При всей своей будоражащей воображение привлекательности это предложение сразу наталкивается на возражение: декогеретность объектов размером с клетку в обычных условиях (ведь нейроны в мозг находятся вовсе не в вакууме при сверхнизких температурах!) составляет порядка 10^(-20) сек. За это время не только не успеет пройти никакой сигнал, но и даже электронные облака едва успеют шелохнутся в самых активных химических реакциях.
Контрвозражение, что есть-де есть механизм коррекции квантовых ошибок, позволяющий устранить разрушающее действие декогеренции, несостоятелен, потому что порог, при котором этот механизм начинает действовать очень высокий. Ориентировочно, требуется, чтобы в каждом единичном акте квантовых вычислений вероятность ошибка составляла не более, чем доли процента, только тогда их можно скорректировать. Но для этого требуется, чтобы время когерентности было существенно больше хотя бы единичного акта квантового вычисления, что конечно в мозге не выполняется.
4. Квантовое сознание
Наконец, есть предложение, восходящее к Пенроузу, о том, что внутри полых трубочек, формирующих цикоскелет нейрона, происходит вызванный гравитацией(!) коллапс волновой функции. Этот коллапс, предполагается, приводит к ощущение самоосознания у высших жизненных форм.
Авторы эту идею, по-настоящему, не критикуют, замечая только, что она опирается на чрезвычайно спекулятивную, никак не проверенную связь между квантовой механикой и гравитацией. Авторы уделяют этому моменту много места, считая, по-видимому, что среди биологов (или просто не-физиков, интересующихся описанными вопросами) нет четкого понимания статуса разных теорий в фундаментальной физике.
Я тут замечу лишь то, что и в обычной нейронауке есть механизмы (связанные с незатухающими нелокализованными возбуждениями с сети нейронов, специфические для мозга с большой поверхностью коры головного мозга), могущие объяснить самоосознание. Конечно, эти предположения требуется проверять экспериментально, но по крайней мере они основаны на "кондовой" физиологии, а не на идеях о квантовой гравитации.
В общем, многие скептические утверждения, приведенные в статье, мне кажутся очевидными, но раз есть группа энтузиастов, которые их не учитывают, то подробное перечисление действительно полезно.
[Комментарии на Элементах]
Первое впечатление, возникшее после её прочтения -- удивление тем, как много, оказывается, существует попыток "притянуть за уши" квантовые явления для функционирования биологических систем. Причем зачастую эти попытки во многом базируются на обычной неграмотности, поскольку уже простые оценки по порядку величины закрывают некоторые предложения. В этой статье терпеливо и довольно подробно объясняется — по-честному, по-физическому, — почему те или иные предложения либо неверны, либо сверхспекулятивны.
Вначале, чтобы не было недоразумения, авторы четко очерчивают предмет критики. Конечно, квантовые эффекты в молекулярной (!) биологии важны -- это и динамика возбуждения биомолекул, туннелирование протонов и электронов и т.д. (например, есть основания считать, что обоняние использует, кроме всего прочего, и резонансное туннелирование электронов в рецепторах). Это все "очевидные" — тривиальные — квантовые эффекты, и относятся они скорее не к биологии, а к молекулярной физике.
Утверждение авторов статьи состоит в том, что никаких предпосылок для более нетривиальных квантовых проявлений в живых системах нет.
Ниже перечислены некоторые из попыток привлечь квантовую механику в биологических системах и их критика авторами статьи.
1. Возникновение наследственности
С "наивно-химической" точки зрения возникновение живых (а точнее, скажем проще, размножающихся и адаптирующихся) систем кажется чрезвычайно маловероятным. (Этот аргумент, кстати, любят использовать и проповедники религии.) Как из таких простых начальных соединений могли возникнуть такие сложные и высоко специфические молекулы как, например, ДНК? Как природа "нашла" удобные молекулы для передачи наследственной информации?
При попытке ответить на этот вопрос возникло предложение "как-то приплести" квантовую механику -- ведь в ней можно осуществить "сверхэффективный квантовый перебор вариантов" и относительно быстро найти молекулы, удобные для передачи информации.
На самом деле, это лишь ничем не подкрепленное желание, не более того. Никаких конкретных механизмов возникновения в системе тенденции к возникновению химической реакции синтеза какой-то редчайшей молекулы никто не предложил. И более того, это пока и не требуется, поскольку спонтанное усложнение хим. состава происходит в определенных условиях само собой. Самоорганизация -- спонтанное возникновение относительно устойчивых структур, гораздо более сложных, чем можно было бы получить за то же время случайным конструированием -- хорошо известное в физике явление.
В дополнение к этому авторы отдельно обсуждают распространенное заблуждение, что якобы квантовый компьютер позволяет осуществить быстрый поиск в классической базе данных. Это неверно: быстрый поиск работает только в квантовой базе данных, т.е. база данных уже должна находится в когерентном состоянии. Если этого нет, то квантовый компьютер не дает никакого ускорения.
2. Туннелирование сквозь промежуточные формы
Другой вариант той же идеи: оптимизация естественного отбора при эволюции простейших форм жизни в более сложные.
Как известно, одно из первых возражений к дарвиновскому принципу естественного отбора состояло в том, что не наблюдаются промежуточные формы. Как природа умудряется пропустить их и сразу "слепить новое существо"?
Этот вопрос уже не является каким-то принципиальным препятствием для современного эволюционного учения, но есть и более экзотические предложения, основанные, в частности, на том же квантовом поиске.
Пропоненты "квантовой идеи" говорят, что этот процесс можно представить как квантовый поиск живучей мутации. Однако -- кроме очевидного возражения о квантовой когерентности -- возникает и такой вопрос: непонятно, что именно должна искать природа. Мутация закрепится, если она окажется более приспособлена к выживанию во внешних условиях. Но на выживаемость надо проверить хотя бы пару-тройку поколений -- только после этого можно сказать, удачная мутация или нет. Т.е. получается, нужно чтоб квантовая когерентность поддерживалась не только в течение жизни одной особи, но и сохранялась между потомками. Но поскольку они будут взаимодействовать с окружающим миром, то это кажется совершенно невероятным.
3. Квантовый мозг
Есть попытки описать деятельность мозга как работу некоторого "квантового компьютера". Предполагается, что нейроны играют роль кубитов, между которыми поддерживается квантовая когерентность. При всей своей будоражащей воображение привлекательности это предложение сразу наталкивается на возражение: декогеретность объектов размером с клетку в обычных условиях (ведь нейроны в мозг находятся вовсе не в вакууме при сверхнизких температурах!) составляет порядка 10^(-20) сек. За это время не только не успеет пройти никакой сигнал, но и даже электронные облака едва успеют шелохнутся в самых активных химических реакциях.
Контрвозражение, что есть-де есть механизм коррекции квантовых ошибок, позволяющий устранить разрушающее действие декогеренции, несостоятелен, потому что порог, при котором этот механизм начинает действовать очень высокий. Ориентировочно, требуется, чтобы в каждом единичном акте квантовых вычислений вероятность ошибка составляла не более, чем доли процента, только тогда их можно скорректировать. Но для этого требуется, чтобы время когерентности было существенно больше хотя бы единичного акта квантового вычисления, что конечно в мозге не выполняется.
4. Квантовое сознание
Наконец, есть предложение, восходящее к Пенроузу, о том, что внутри полых трубочек, формирующих цикоскелет нейрона, происходит вызванный гравитацией(!) коллапс волновой функции. Этот коллапс, предполагается, приводит к ощущение самоосознания у высших жизненных форм.
Авторы эту идею, по-настоящему, не критикуют, замечая только, что она опирается на чрезвычайно спекулятивную, никак не проверенную связь между квантовой механикой и гравитацией. Авторы уделяют этому моменту много места, считая, по-видимому, что среди биологов (или просто не-физиков, интересующихся описанными вопросами) нет четкого понимания статуса разных теорий в фундаментальной физике.
Я тут замечу лишь то, что и в обычной нейронауке есть механизмы (связанные с незатухающими нелокализованными возбуждениями с сети нейронов, специфические для мозга с большой поверхностью коры головного мозга), могущие объяснить самоосознание. Конечно, эти предположения требуется проверять экспериментально, но по крайней мере они основаны на "кондовой" физиологии, а не на идеях о квантовой гравитации.
В общем, многие скептические утверждения, приведенные в статье, мне кажутся очевидными, но раз есть группа энтузиастов, которые их не учитывают, то подробное перечисление действительно полезно.
[Комментарии на Элементах]
13 мая 2007 г.
Адронные коллайдеры после LHC
В следующем году вступает в строй (на полную мощность) LHC. Большинство физиков сейчас потирает руки и предвкушает всякие разные данные с LHC, но отдельные дальновидные товарищи давно уже задаются вопросом: а что дальше?
В принципе, уже есть детальные планы на следующий ускоритель: линейный электрон-позитронный коллайдер с энергией в каждом пучке 0.5 ТэВ. Но линейный e+e- и адронный коллайдеры всё же имеют существенно разную программу исследований, поэтому уже сейчас хочется понять, можно ли будет построить протонный коллайдер с энергией больше, чем у LHC.
В Фермилабе сейчас проходит очередная встреча Fermilab Steering group, которая пытается понять, куда должна развиваться ускорительная физика в США в ближайшие годы. И один из докладов (High Energy Colliders, pdf, 1.1 Mb) был как раз посвящен планам на будущее, связанным с протонными коллайдерами сверхвысоких энергий.
Во-первых, описывается опция модернизации LHC с удвоением энергии (DLHC). Тут все просто: максимальная энергия LHC (7 ТэВ) ограничивается величиной магнитного поля в поворотных магнитах (8.33 Тесла). Никаких препятствий к дальнейшему ускорению протонов нет, но их просто нельзя будет удержать на орбите. Так что если магнитное поле увеличить вдвое, то соответственно возрастет и достижимая на LHC энергия пучков. Предполагается, что таких магнитных полей можно будет достичь с помощью нового магнита Nb3Sn, но потребуется еще с десяток лет, чтобы довести технологию до готовых ускорительных образцов.
Кстати, интересный пример взаимозависимости разных разделов физики: прогресс в материаловедении и физике конденсированных сред может привести к прорыву (открытию новых частиц?) в физике элементарных частиц.
Наверно, стоит пояснить, чем полезно увеличение энергии протонов.
Высокоэнергетический протон состоит из большого числа отдельных корпускул -- партонов. Когда сталкиваются два протона, то реально происходит столкновение двух партонов из встречных протонов. Число партонов вовсе не три, а значительно больше. Более того, число партонов с заданной энергией (скажем, 100 ГэВ) быстро растет с энергией родительского протона (от 7 ТэВ до 14 ТэВ). Поэтому увеличивая энергию протонов в пучке, мы не только можем рождать более тяжелые частицы, но и резко увеличиваем количество событий с умеренно тяжелыми частицами. Грубо говоря, если на LHC ожидалось, скажем, десять событий какого-то редкого типа, то в двойном LHC их будет уже несколько десятков.
Кроме удвоения энергии LHC сейчас рассматривается и возможность создание полностью нового коллайдера, условно называемого VLHC -- Very Large Hadron Collider. Идея состоит в следующем. Выкопаем полностью новый очень большой туннель, на это пойдет основная часть финансирования, а затем заполним его дешевыми и умеренно сильными магнитами.
Конкретный план предлагается такой. На террирории штата Иллиноис можно выкопать кольцевой туннель периметром 233 км и заставить его магнитами на 2 Тесла. При этом само устройство ускорителя, в частности, система охлаждения, а также его работа будет существенно дешевле, чем на LHC. Таким способом можно будет достичь энергии пучков 20 ТэВ, причем подчеркивается, что всё это возможно при уже существующих технологиях. Примерный план таков, что предварительный R&D может начаться около 2012 года, копание туннеля и монтаж -- около 2017 года, а в строй он вступит в районе 2024 года. К этому времени, LHC уже закончится, линейный электрон-позитронный коллайдер вероятно уже будет работать, а мюонный коллайдер еще нет.
Затем, если удастся получить магниты нужного качества (и стоимости) с магнитным полем выше 10 Тесла, в том же туннеле можно будет произвести модернизацию VLHC на энергию 100 ТэВ в пучке.
[Комментарии на Элементах]
В принципе, уже есть детальные планы на следующий ускоритель: линейный электрон-позитронный коллайдер с энергией в каждом пучке 0.5 ТэВ. Но линейный e+e- и адронный коллайдеры всё же имеют существенно разную программу исследований, поэтому уже сейчас хочется понять, можно ли будет построить протонный коллайдер с энергией больше, чем у LHC.
В Фермилабе сейчас проходит очередная встреча Fermilab Steering group, которая пытается понять, куда должна развиваться ускорительная физика в США в ближайшие годы. И один из докладов (High Energy Colliders, pdf, 1.1 Mb) был как раз посвящен планам на будущее, связанным с протонными коллайдерами сверхвысоких энергий.
Во-первых, описывается опция модернизации LHC с удвоением энергии (DLHC). Тут все просто: максимальная энергия LHC (7 ТэВ) ограничивается величиной магнитного поля в поворотных магнитах (8.33 Тесла). Никаких препятствий к дальнейшему ускорению протонов нет, но их просто нельзя будет удержать на орбите. Так что если магнитное поле увеличить вдвое, то соответственно возрастет и достижимая на LHC энергия пучков. Предполагается, что таких магнитных полей можно будет достичь с помощью нового магнита Nb3Sn, но потребуется еще с десяток лет, чтобы довести технологию до готовых ускорительных образцов.
Кстати, интересный пример взаимозависимости разных разделов физики: прогресс в материаловедении и физике конденсированных сред может привести к прорыву (открытию новых частиц?) в физике элементарных частиц.
Наверно, стоит пояснить, чем полезно увеличение энергии протонов.
Высокоэнергетический протон состоит из большого числа отдельных корпускул -- партонов. Когда сталкиваются два протона, то реально происходит столкновение двух партонов из встречных протонов. Число партонов вовсе не три, а значительно больше. Более того, число партонов с заданной энергией (скажем, 100 ГэВ) быстро растет с энергией родительского протона (от 7 ТэВ до 14 ТэВ). Поэтому увеличивая энергию протонов в пучке, мы не только можем рождать более тяжелые частицы, но и резко увеличиваем количество событий с умеренно тяжелыми частицами. Грубо говоря, если на LHC ожидалось, скажем, десять событий какого-то редкого типа, то в двойном LHC их будет уже несколько десятков.
Кроме удвоения энергии LHC сейчас рассматривается и возможность создание полностью нового коллайдера, условно называемого VLHC -- Very Large Hadron Collider. Идея состоит в следующем. Выкопаем полностью новый очень большой туннель, на это пойдет основная часть финансирования, а затем заполним его дешевыми и умеренно сильными магнитами.
Конкретный план предлагается такой. На террирории штата Иллиноис можно выкопать кольцевой туннель периметром 233 км и заставить его магнитами на 2 Тесла. При этом само устройство ускорителя, в частности, система охлаждения, а также его работа будет существенно дешевле, чем на LHC. Таким способом можно будет достичь энергии пучков 20 ТэВ, причем подчеркивается, что всё это возможно при уже существующих технологиях. Примерный план таков, что предварительный R&D может начаться около 2012 года, копание туннеля и монтаж -- около 2017 года, а в строй он вступит в районе 2024 года. К этому времени, LHC уже закончится, линейный электрон-позитронный коллайдер вероятно уже будет работать, а мюонный коллайдер еще нет.
Затем, если удастся получить магниты нужного качества (и стоимости) с магнитным полем выше 10 Тесла, в том же туннеле можно будет произвести модернизацию VLHC на энергию 100 ТэВ в пучке.
[Комментарии на Элементах]
12 мая 2007 г.
Пространство-время по Аристотелю и Галилею
Читая "The road to reality" Пенроуза наткнулся на очень интересное сравнение пространства-времени у Аристотеля и Галилея. Да, вот, оказывается и до Эйнштейна были интересные изменения в концепции пространства-времени :)
Не то, чтоб это совсем удивительная мысль, просто в таком ключе я никогда не думал. Вот, как известно, Аристотель считал, что "естественное" состояние вещей -- покой, а движение всегда вызывается какой-то внешней силой. Т.е. покою приписывается абсолютный смысл.
Сейчас мы умные, можем задать вопрос: покой относительно чего? Т.е. получается у Аристотеля есть выделенная система отсчета. Фактически, у Аристотеля есть понятие пространства как нечто "материальное", физически присутствующее, определяющее, что считается покоящимся, а что движущимся. Каждая точка аристотелева пространства-времени считается неподвижной, сохраняющей с течением времени свое положение.
Пенроуз сравнивает такое пространство с экраном, на который проецируют движущуюся картинку: не важно, какое действие на ней происходит, сами точки экрана сохраняют свою идентичность с течением времени.
Аристотелево пространство-время можно представить себе как стопку бумаги, насквозь натвердо проклеенную. Каждый слой бумаги есть пространство в данный момент времени, и с ходом времени мы перебираем слои один за другим. Переходя от одного момента времени к другому, мы видим неизменность пространства. У каждой точки пространства в одном слое есть соседние точки пространства в других слоях.
У Галилея пространство-время совсем не такое. Принцип галилеевой относительности утверждает, что невозможно ни в каком механическом эксперименте отличить прямолинейное равномерное движение от состояния покоя. Т.е. выделенная система отсчета исчезает, и вместе с ней неизбежно исчезает абсолютное, неизменное пространство. Т.е. если рассмотреть какую-то точку пространства в данный момент времени, то невозможно сказать, "где" эта точка пространства будет в следующий момент.
Пространство как нечто материально существующее исчезает. Можно сказать, что нет пространства, непрерывно живущего во времени. В каждый момент времени есть "свое" пространство, которое живет только в этот момент времени и тут же распадается. Спустя бесконечно малый промежуток времени перед нами уже другое пространство.
Представить такое пространство можно как стопку листов, которые никак не склеены, так что их можно произольно сдвигать друг относительно друга (линейные сдвиги есть просто переход в другую инерциальную систему отсчета), и при этом пространство останется все тем же пространством. Точки из разных слоев нельзя считать "соседними", потому что сдвинув слои, можно разнести их далеко. В математике есть удобный объект для обозначения: расслоение.
[Комментарии на Элементах]
Не то, чтоб это совсем удивительная мысль, просто в таком ключе я никогда не думал. Вот, как известно, Аристотель считал, что "естественное" состояние вещей -- покой, а движение всегда вызывается какой-то внешней силой. Т.е. покою приписывается абсолютный смысл.
Сейчас мы умные, можем задать вопрос: покой относительно чего? Т.е. получается у Аристотеля есть выделенная система отсчета. Фактически, у Аристотеля есть понятие пространства как нечто "материальное", физически присутствующее, определяющее, что считается покоящимся, а что движущимся. Каждая точка аристотелева пространства-времени считается неподвижной, сохраняющей с течением времени свое положение.
Пенроуз сравнивает такое пространство с экраном, на который проецируют движущуюся картинку: не важно, какое действие на ней происходит, сами точки экрана сохраняют свою идентичность с течением времени.
Аристотелево пространство-время можно представить себе как стопку бумаги, насквозь натвердо проклеенную. Каждый слой бумаги есть пространство в данный момент времени, и с ходом времени мы перебираем слои один за другим. Переходя от одного момента времени к другому, мы видим неизменность пространства. У каждой точки пространства в одном слое есть соседние точки пространства в других слоях.
У Галилея пространство-время совсем не такое. Принцип галилеевой относительности утверждает, что невозможно ни в каком механическом эксперименте отличить прямолинейное равномерное движение от состояния покоя. Т.е. выделенная система отсчета исчезает, и вместе с ней неизбежно исчезает абсолютное, неизменное пространство. Т.е. если рассмотреть какую-то точку пространства в данный момент времени, то невозможно сказать, "где" эта точка пространства будет в следующий момент.
Пространство как нечто материально существующее исчезает. Можно сказать, что нет пространства, непрерывно живущего во времени. В каждый момент времени есть "свое" пространство, которое живет только в этот момент времени и тут же распадается. Спустя бесконечно малый промежуток времени перед нами уже другое пространство.
Представить такое пространство можно как стопку листов, которые никак не склеены, так что их можно произольно сдвигать друг относительно друга (линейные сдвиги есть просто переход в другую инерциальную систему отсчета), и при этом пространство останется все тем же пространством. Точки из разных слоев нельзя считать "соседними", потому что сдвинув слои, можно разнести их далеко. В математике есть удобный объект для обозначения: расслоение.
[Комментарии на Элементах]
11 мая 2007 г.
Времена и расстояния
Интересно, кто как сопоставляет для себя шкалу "типичных" времен и "типичных" расстояний? Вот например типичный короткий интервал времени в повседневной жизни человека -- это одна секунда. Какое примерно расстояние у вас ощущается столь же коротким, как и секунда? А какое расстояние вам кажется сопоставимым с одним часом?
[Комментарии на Элементах]
[Комментарии на Элементах]
25 марта 2007 г.
Что надо понимать физику-теоретику?
В прошлой теме меня спросили: что должен знать физик-теоретик? Мою сугубо личную точку зрения я решил вынести в отдельное сообщение.
Во-первых, я хочу всё же подкорректировать вопрос. Принципиально важным является не то, что человек знает, а что он понимает. И самое главное требование к физику-теоретику -- всегда понимать, что он делает, как бы ни банально это звучало.
Среди людей, занимающихся теоретической физикой элементарных частиц, есть заметный процент людей, которые -- на мой взгляд! -- не отдают себе отчета в том, что именно они делают. Дело в том, что в теорфизике очень мало что можно посчитать точно. Очень часто вычисление можно "протолкнуть дальше", лишь сделав некое предположение о виде взаимодействия, форме волновых функций, асимптотическом поведении чего-нибудь и т.п.
И вот здесь требуется чутье. Хорошее предположение позволяет перепрыгнуть через барьер непреодолимых вычислений и узнать что-то новое о поведении системы. За такие предположения дают Нобелеские премии. А плохое предположение приводит человека к ситуации, когда он сидит, радостно вычисляет всё, что вычисляется, но не понимает, что всё это -- лишь биография его конкретного предположения, конкретной параметризации, и не имеет отношения к исходной физике.
И таких ситуаций довольно много, когда человек думает, что он вычисляет что-то физически полезное, а на самом деле копается в тонкостях своей параметризации, которая ничего по сути не проясняет. И человек публикуется, выступает с докладами, но не видит подмены понятий.
У меня как-то тоже был период, когда я увлекся параметризациями и их уточнением. Из вычислений и сравнения с экспериментами у меня вылезали какие-то забавные выводы, которые я даже озвучивал в докладах на конференциях. А потом я понял, что при желании могу, поизгалавшись над параметризациями, извлечь почти любой вывод из имеющихся данных. Так что я бросил все эти игры, поняв, что пользы от них всё равно нет.
Второе, что надо понимать -- что образование, полученное в универе по физике и по математике, составляет лишь порядка 10% от необходимого для того, чтоб только начать нормально работать в теоретической физике. Надо понимать, что в ближайшие 20 лет наверняка придется непрерывно образовываться. Немного неожиданно то, что этот процесс непрерывного образования (который, вроде как, подразумевает перманентное состояние недообразованности :) ) вовсе не противоречит возможности самому добывать новые крупицы знания в теорфизике.
Третье. Надо, конечно, в общих чертах понимать всю физику. Но именно понимать, а не знать назубок все формулы. Разумеется, изучать всего Ландавшица необязательно. Конкретные знания в той или иной области физики можно приобрести относительно быстро, имея это понимание.
Это, кстати, большая проблема для физиков, с университета недолюбливавших квантовые разделы физики и специализировавшихся на неквантовых направлениях. С течением времени намеки на понимание выветрятся, и этот "квантовый барьер" будет казаться всё более и более неприступным.
Нужно ли разбираться в эксперименте или нет -- я не знаю. Мне кажется, желательно, но обычно хорошее знание эксперимента не ведет ни к каким преимуществам в теоретической физике. Экспериментальную физику понимат полезно скорее для общенаучного образования.
Затем, отдельным пунктом добавлю, что нужно уважать современные разделы математики и понимать, что иногда очень тривиальная математика помогает там, где вычисления в лоб или "дедовские способы" физика-теоретика не работают. И относится это не к заумным теорфизическим задачам, а к самым стандартным расчетам.
Наконец, есть бич современного образования -- попытка свалить как можно большую часть вычислений компьютеру. Я уже говорил и скажу снова: все те вычисления, которые можно сделать своими руками, должны делаться руками. Польза от этого очень большая. Даже интегралы желательно пытаться брать руками: часто это дает понимание, какие именно области доминируют, какие сигнулярности важны, видно, как изменилось бы поведение интеграла, если бы функция отличалась так-то и так-то и т.п. К сожалению, есть много людей, которые считают, что незачем тратить время, машина всё сосчитает. Это очень вредно.
[Комментарии на Элементах]
Во-первых, я хочу всё же подкорректировать вопрос. Принципиально важным является не то, что человек знает, а что он понимает. И самое главное требование к физику-теоретику -- всегда понимать, что он делает, как бы ни банально это звучало.
Среди людей, занимающихся теоретической физикой элементарных частиц, есть заметный процент людей, которые -- на мой взгляд! -- не отдают себе отчета в том, что именно они делают. Дело в том, что в теорфизике очень мало что можно посчитать точно. Очень часто вычисление можно "протолкнуть дальше", лишь сделав некое предположение о виде взаимодействия, форме волновых функций, асимптотическом поведении чего-нибудь и т.п.
И вот здесь требуется чутье. Хорошее предположение позволяет перепрыгнуть через барьер непреодолимых вычислений и узнать что-то новое о поведении системы. За такие предположения дают Нобелеские премии. А плохое предположение приводит человека к ситуации, когда он сидит, радостно вычисляет всё, что вычисляется, но не понимает, что всё это -- лишь биография его конкретного предположения, конкретной параметризации, и не имеет отношения к исходной физике.
И таких ситуаций довольно много, когда человек думает, что он вычисляет что-то физически полезное, а на самом деле копается в тонкостях своей параметризации, которая ничего по сути не проясняет. И человек публикуется, выступает с докладами, но не видит подмены понятий.
У меня как-то тоже был период, когда я увлекся параметризациями и их уточнением. Из вычислений и сравнения с экспериментами у меня вылезали какие-то забавные выводы, которые я даже озвучивал в докладах на конференциях. А потом я понял, что при желании могу, поизгалавшись над параметризациями, извлечь почти любой вывод из имеющихся данных. Так что я бросил все эти игры, поняв, что пользы от них всё равно нет.
Второе, что надо понимать -- что образование, полученное в универе по физике и по математике, составляет лишь порядка 10% от необходимого для того, чтоб только начать нормально работать в теоретической физике. Надо понимать, что в ближайшие 20 лет наверняка придется непрерывно образовываться. Немного неожиданно то, что этот процесс непрерывного образования (который, вроде как, подразумевает перманентное состояние недообразованности :) ) вовсе не противоречит возможности самому добывать новые крупицы знания в теорфизике.
Третье. Надо, конечно, в общих чертах понимать всю физику. Но именно понимать, а не знать назубок все формулы. Разумеется, изучать всего Ландавшица необязательно. Конкретные знания в той или иной области физики можно приобрести относительно быстро, имея это понимание.
Это, кстати, большая проблема для физиков, с университета недолюбливавших квантовые разделы физики и специализировавшихся на неквантовых направлениях. С течением времени намеки на понимание выветрятся, и этот "квантовый барьер" будет казаться всё более и более неприступным.
Нужно ли разбираться в эксперименте или нет -- я не знаю. Мне кажется, желательно, но обычно хорошее знание эксперимента не ведет ни к каким преимуществам в теоретической физике. Экспериментальную физику понимат полезно скорее для общенаучного образования.
Затем, отдельным пунктом добавлю, что нужно уважать современные разделы математики и понимать, что иногда очень тривиальная математика помогает там, где вычисления в лоб или "дедовские способы" физика-теоретика не работают. И относится это не к заумным теорфизическим задачам, а к самым стандартным расчетам.
Наконец, есть бич современного образования -- попытка свалить как можно большую часть вычислений компьютеру. Я уже говорил и скажу снова: все те вычисления, которые можно сделать своими руками, должны делаться руками. Польза от этого очень большая. Даже интегралы желательно пытаться брать руками: часто это дает понимание, какие именно области доминируют, какие сигнулярности важны, видно, как изменилось бы поведение интеграла, если бы функция отличалась так-то и так-то и т.п. К сожалению, есть много людей, которые считают, что незачем тратить время, машина всё сосчитает. Это очень вредно.
[Комментарии на Элементах]
22 марта 2007 г.
Факторизация чисел с помощью ядерного магнитного резонанса
В свежем выпуске PRL появилась очень забавная статья NMR Experiment Factors Numbers with Gauss Sums (она же quant-ph/0609174).
В ней авторы поставили ядерномагнитный эксперимент: облучали образец воды последовательностью радиочастотных сигналов определенной формы, потом измеряли отклик, и с помощью этого разлагали заданное число на простые множители.
Подробно всё рассказывается на примере числа 157573=13*17*23*31 (всё хорошо работает). Для примера показали также картинку с факторизацией числа 1062885837863046188098307, там их метод тоже работает, но не столь чисто. Подробности, как водится, авторы отложили для более длинной публикации.
Авторы говорят, что этот метод по сути классический, но возможно его можно будет адаптировать для квантовых вычислений.
[Комментарии на Элементах]
В ней авторы поставили ядерномагнитный эксперимент: облучали образец воды последовательностью радиочастотных сигналов определенной формы, потом измеряли отклик, и с помощью этого разлагали заданное число на простые множители.
Подробно всё рассказывается на примере числа 157573=13*17*23*31 (всё хорошо работает). Для примера показали также картинку с факторизацией числа 1062885837863046188098307, там их метод тоже работает, но не столь чисто. Подробности, как водится, авторы отложили для более длинной публикации.
Авторы говорят, что этот метод по сути классический, но возможно его можно будет адаптировать для квантовых вычислений.
[Комментарии на Элементах]
20 марта 2007 г.
Не требуется быть всезнайкой
В продолжение к предыдущему обсуждению, я сейчас хочу высказаться и по поводу стандартного возражения научных журналистов:
Это замечание часто звучит в ответ на упреки в грубых ошибках в научно-популярных новостях. На самом деле, у этого возражения есть продолжение, которое подразумевается, но редко когда озвучивается:
Вот с этим выводом хочется поспорить.
Для начала скажу, что спорить имеет смысл только в том случае, если журналист действительно заинтересован в улучшении точности своих статей и качества подачи информации. То есть, он понимает, что цель журналистики -- рассказать правду, а не рассказать что-нибудь.
Кстати, это вовсе не "дежурная" оговорка. Есть журналисты с существенно иной философией: в современных условиях журналист должен быть полным универсалом, а значит, он обязан писать обо всем вообще, в том числе и о том, что он ВООБЩЕ не понимает. Следовательно, журналист не должен даже пытаться понять, про что новость -- это не его дело. С такой философией можно познакомиться поближе на примере вот этой дискуссии в ЖЖ (дискуссия длинная, но очень показательная).
Итак, моё утверждение такое: для написания сносных новостей по всем разделам науки не требуется быть всезнайкой. В многих случаях особо грубые ошибки можно легко устранить, даже не будучи специалистом. Особо подчеркну -- речь идет не про аналитическую многостраничную статью, а про краткую новость, в 1-2 кб, на которую надо затратить время не более часа-двух.
Во-первых, сразу оговорюсь, что речь идет про профпригодного научного журналиста. Я имею в виду, например, что он владеет английским языком в достаточной степени, чтоб читать иностранные сайты, что он умеет искать информацию в интернете, что у него не сильно плохо с математикой (например, он должен знать основы теории вероятностей и статистики), и что он имеет хоть какое-то базовое образование по всем наукам в целом (грубо говоря, чтоб для него не было откровением, что химические свойства веществ определяются электронными оболочками, и что белок и ДНК -- это разые вещи.)
Во-вторых, поясню, что я имею в виду под "сносной новостью". Я уже писал раньше, что наипервейшей вещью, к которой надо стремиться -- это её осмысленность. Бессмысленные новости (противоречащие сами себе, использующие бессмысленный набор слов, делающие очевидно бессмысленные выводы) не улучшить ничем и никак. А уж потом надо стараться, чтоб новость была без ошибок и доступная для читателя. Так вот, сносная новость -- это, прежде всего, новость осмысленная и хоть немного удовлетворяющая критерию точности и доступности.
Приведу теперь список вещей, которые, на мой взгляд, может контролировать каждый профпригодный научный журналист при написании короткой новости.
1. Надо понимать, в каких источниках искать какую информацию.
Грубо говоря, надо знать, что если произошло землетрясение, то подробную информацию о его времени и магнитуде можно найти на сайтах сейсмологических служб (к этим данным свободный доступ), а не обзванивать чиновников МЧС или знакомых геологов. Если идет речь о том, сколько публикаций у данного ученого, то искать эту информацию надо или на его персональной страничке, или в онлайн-службах научных публикаций. Если непонятен термин, то надо заглянуть в тематическую энциклопедию или популярный обзор. Есл нужна официальная формулировка нобелевской премии, то найти ее можно на сайте нобелевского комитета. Наконец, если непонятно, как писать термин по-русски, надо просто пробовать разные комбинации в поисковиках и листать тексты.
2. Проверить, что уже написано по этой теме. В том числе и существенно раньше -- ведь исходная работа редко когда бывает принципиально новая, обычно это лишь новое слово в какой-то теме давно изучаемой теме. Можно быстро пробежаться глазами по доступным популярным статьям, скажем, из Соросовского образовательного журнала. Это не только прояснит картину, но и даст уже готовые формулировки, избавляя журналиста от никому ненужных мук творчества. Можно составить себе список сайтов, где есть популярные введения в разные разделы науки.
3. Обязательно устранять смысловые глупости, возникающие при небрежном переводе (один такой пример был у меня в статье), и проверять все числа! Почему-то для журналиста есть разница между "12 погибших" и "1200 погибших", но нет разницы между миллисекундой и микросекундой. Понятно, конечно, почему -- потому что переход от миллисекунды к микросекунде ни о чем таком не говорит журналисту, в том время как переход от 12 жертв к 1200 всем ясен. Тем не менее, надо понимать, что будут читатели, которым эти числа что-то говорят, поэтому не надо брезговать проверкой точных чисел.
Наверно, еще что-то есть, сейчас в голову не приходит.
На всякий случай, подчеркну, что я даю все эти советы, зная, о чем говорю. Когда я читаю практически любую короткую новость науки по моей теме, я сразу вижу не тольок сами ошибки, но и что надо было сделать журналисту, чтобы их избежать. Когда я сам пишу новости по не-физическим темам, то я тоже придерживаюсь всех этих правил (плюс я читаю оригинальную статью, что журналисты не считают нужным делать).
В конце, еще раз повторю основную мысль. Многие ошибки в новостях науки -- невынужденные. Их можно избежать, даже не будучи специалистом и не затрачивая на это слишком много времени.
[Комментарии на Элементах]
Не может же журналист быть специалистом во всём! Но писать ему (в сегодняшних условиях) приходится обо всей науке. Значит, ему придется писать и о том, в чем он не разбирается.
Это замечание часто звучит в ответ на упреки в грубых ошибках в научно-популярных новостях. На самом деле, у этого возражения есть продолжение, которое подразумевается, но редко когда озвучивается:
... а поэтому ошибки неизбежны, и вы, специалисты, не придирайтесь к нашим ошибкам -- как умеем, так и пишем.
Вот с этим выводом хочется поспорить.
Для начала скажу, что спорить имеет смысл только в том случае, если журналист действительно заинтересован в улучшении точности своих статей и качества подачи информации. То есть, он понимает, что цель журналистики -- рассказать правду, а не рассказать что-нибудь.
Кстати, это вовсе не "дежурная" оговорка. Есть журналисты с существенно иной философией: в современных условиях журналист должен быть полным универсалом, а значит, он обязан писать обо всем вообще, в том числе и о том, что он ВООБЩЕ не понимает. Следовательно, журналист не должен даже пытаться понять, про что новость -- это не его дело. С такой философией можно познакомиться поближе на примере вот этой дискуссии в ЖЖ (дискуссия длинная, но очень показательная).
Итак, моё утверждение такое: для написания сносных новостей по всем разделам науки не требуется быть всезнайкой. В многих случаях особо грубые ошибки можно легко устранить, даже не будучи специалистом. Особо подчеркну -- речь идет не про аналитическую многостраничную статью, а про краткую новость, в 1-2 кб, на которую надо затратить время не более часа-двух.
Во-первых, сразу оговорюсь, что речь идет про профпригодного научного журналиста. Я имею в виду, например, что он владеет английским языком в достаточной степени, чтоб читать иностранные сайты, что он умеет искать информацию в интернете, что у него не сильно плохо с математикой (например, он должен знать основы теории вероятностей и статистики), и что он имеет хоть какое-то базовое образование по всем наукам в целом (грубо говоря, чтоб для него не было откровением, что химические свойства веществ определяются электронными оболочками, и что белок и ДНК -- это разые вещи.)
Во-вторых, поясню, что я имею в виду под "сносной новостью". Я уже писал раньше, что наипервейшей вещью, к которой надо стремиться -- это её осмысленность. Бессмысленные новости (противоречащие сами себе, использующие бессмысленный набор слов, делающие очевидно бессмысленные выводы) не улучшить ничем и никак. А уж потом надо стараться, чтоб новость была без ошибок и доступная для читателя. Так вот, сносная новость -- это, прежде всего, новость осмысленная и хоть немного удовлетворяющая критерию точности и доступности.
Приведу теперь список вещей, которые, на мой взгляд, может контролировать каждый профпригодный научный журналист при написании короткой новости.
1. Надо понимать, в каких источниках искать какую информацию.
Грубо говоря, надо знать, что если произошло землетрясение, то подробную информацию о его времени и магнитуде можно найти на сайтах сейсмологических служб (к этим данным свободный доступ), а не обзванивать чиновников МЧС или знакомых геологов. Если идет речь о том, сколько публикаций у данного ученого, то искать эту информацию надо или на его персональной страничке, или в онлайн-службах научных публикаций. Если непонятен термин, то надо заглянуть в тематическую энциклопедию или популярный обзор. Есл нужна официальная формулировка нобелевской премии, то найти ее можно на сайте нобелевского комитета. Наконец, если непонятно, как писать термин по-русски, надо просто пробовать разные комбинации в поисковиках и листать тексты.
2. Проверить, что уже написано по этой теме. В том числе и существенно раньше -- ведь исходная работа редко когда бывает принципиально новая, обычно это лишь новое слово в какой-то теме давно изучаемой теме. Можно быстро пробежаться глазами по доступным популярным статьям, скажем, из Соросовского образовательного журнала. Это не только прояснит картину, но и даст уже готовые формулировки, избавляя журналиста от никому ненужных мук творчества. Можно составить себе список сайтов, где есть популярные введения в разные разделы науки.
3. Обязательно устранять смысловые глупости, возникающие при небрежном переводе (один такой пример был у меня в статье), и проверять все числа! Почему-то для журналиста есть разница между "12 погибших" и "1200 погибших", но нет разницы между миллисекундой и микросекундой. Понятно, конечно, почему -- потому что переход от миллисекунды к микросекунде ни о чем таком не говорит журналисту, в том время как переход от 12 жертв к 1200 всем ясен. Тем не менее, надо понимать, что будут читатели, которым эти числа что-то говорят, поэтому не надо брезговать проверкой точных чисел.
Наверно, еще что-то есть, сейчас в голову не приходит.
На всякий случай, подчеркну, что я даю все эти советы, зная, о чем говорю. Когда я читаю практически любую короткую новость науки по моей теме, я сразу вижу не тольок сами ошибки, но и что надо было сделать журналисту, чтобы их избежать. Когда я сам пишу новости по не-физическим темам, то я тоже придерживаюсь всех этих правил (плюс я читаю оригинальную статью, что журналисты не считают нужным делать).
В конце, еще раз повторю основную мысль. Многие ошибки в новостях науки -- невынужденные. Их можно избежать, даже не будучи специалистом и не затрачивая на это слишком много времени.
[Комментарии на Элементах]
17 марта 2007 г.
В чем вред от неправильных научно-популярных новостей
В комментариях к статье "Анатомия одной новости, ..." было высказано мнение, что искажения и ошибки в освещении научных исследований типичными СМИ никакого особого вреда не приносят. Тут я попробую пояснить, в дополнение к тому, что написано в статье, что именно я имею в виду.
Начну с общего утверждения, которое я слышал от самых разных людей:
Речь идет про журналиста "общего полету", не обладающего специальным образованием в данной теме. Сама же тема может быть почти любая -- начиная от фототехники и автомобилей и заканчивая современной математикой. Поэтому кажется разумной такая экстраполяция: если вы (равно как и журналист) не специалист в данной теме и если вы в тексте не видите ошибок, то вполне вероятно, что они там есть, но только незаметны без специального образования.
Собственно, я в статье постарался указать на такие ошибки на примере конкретной новости по физике элементарных частиц. Я хочу еще раз подчеркнуть -- можно иногда изменить одно слово или даже выбрать не тот синоним при переводе и тем самым сильно исказить смысл, причем сам журналист, не обладая нужными знаниями, этого просто не заметит.
Журналисты тут же приведут свой извечный аргумент: "Ну так не можем же мы знать всё! Значит, в любом случае придется писать на темы, в которые ни зуб ногой." Так вот, про сам этот аргумент я поговорю в другой раз, а сейчас я хочу сказать следующее. Да, сейчас ситуация в российской журналистике именно такая, что часто журналисту приходится писать по темам, в которых он ничего не понимает. Однако не надо закрывать на это глаза, не надо считать, что этой проблемы нет! Надо признать, что действительно в таких случаях стандартная новость типичного "журналиста-универсала" вполне может содержать по несколько ошибок на килобайт текста. Даже если и сам журналист, и редактор их не замечает.
Теперь поговорим про вред от ошибочного освещения научных исследований.
Первый и самый прямой вред касается неправильного освещения биомедицинских исследований. Наверно, всем очевиден вред от неприкрытой рекламы какого-нибудь медицинского прибора, действующего на основе физических законов, которые не признаются "официальной наукой". (Доверчивые люди не только отдают свои деньги за пустышку, но и теряют время, не обращаясь к врачам.)
Однако вред не всегда бывает столь прямолинеен. Иногда ошибка заключается в неправильном подборе слов, но и она может принести вред. В Рекомендациях по освещению науки и медицины в прессе, составленной британскими медиками, журналистами и учеными (частичный перевод см. тут), говорится, что ни журналисты, ни сами ученые не должны искажать истинную суть выводов, полученных в ходе исследования. В особенности, если это касается здоровья, опасности для жизни и тому подобных вещей.
Скажем, нельзя озаглавливать заметку "Возможно, совершен прорыв в лечении рака легких", если на самом деле изучался лишь какой-то мелкий процесс, который только в отдаленном будущем и при условии дальнейшего прогресса может привести к лучшему пониманию заболевания. Такой заголовок может привести к совершенно необоснованным надеждам, на основании которых человек может принимать решения, касающиеся своего здоровья. Ровно так же было бы ошибкой, приносящей вред, если бы журналист написал "Минздрав не возражает против использования этого прибора в медицине", -- что звучит очень позитивно! -- тогда как на самом деле Минздрав просто считает этот прибор безвредным, не говоря ничего про его пользу или бесполезность. Небольшая переформулировка существенно меняет отношение читателей к излагаемой информации и может повлиять на их решение относительно их собственного здоровья.
Примерно такой же уровень вреда может быть и от неправильных новостей технологии. Безграмотная статья про выбор компьютера (вот свежий пример) может привести к выбрасыванию денег на ветер, а затем и купленной продукции -- на свалку.
В общем, человек может принимать решения, руководствуясь этой информацией, что может привести к материальным потерям.
Всё это хорошо, но какой тогда может быть вред от неправильного освещения фундаментальных научных исследований? Казалось бы, кому какая разница: "одиночное рождение кварка" или "получен свободный кварк".
Действительно, ошибка в этом конкретном факте прямого вреда человеку не принесет. Вред возникает от совокупного действия многочисленных ошибок, постоянного искажения смысла, смещения акцентов и т.д. И касается этот вред не материальных благ человека, а понимания того, что его окружает, что в мире происходит, какова роль фундаментальной науки в повседневной жизни. А это в свою очередь может сказаться, например, на том, какое образование получат его дети, как они будут смотреть на мир.
Представьте себе, к примеру, такую антиутопию. Пусть все хорошие научно-популярные издания и писатели исчезли, а остались только авторы, ни в малейшей степени не понимающие науку и даже не пытающиеся избежать ошибок при описании исследований. Добавьте к этому полный запрет ученым как-либо комментировать и поправлять сообщения в СМИ. Зато -- полную свободу слова представителям "нетрадиционной науки". И наконец, предположим, что читатели действительно верят, что сообщения СМИ достаточно близко отражают реальное положение дел в науке.
Некоторые последствия легко предсказать. Во-первых, даже если бы читатель захотел вдуматься в новости, проследить логику развития в той или иной области науки, ему бы это не удалось. Сообщения СМИ противоречили бы сами себе: сначала "свободных кварков не существует", через год -- "физики открыли свободный кварк", еще через год -- "кварки, возможно, не существуют". Или например так: "квантовая механика полна парадоксов, но работает", "Физики подтвердили парадоксы квантовой механики", "Квантовая механика не работает", "Квантовая механика позволяет шифровать банковские данные". А не понимая логики развития, читатель не будет понимать и настоящую суть конкретных гипотез, фактов и достижений.
Во-вторых, любой статье можно дать такой заголовок, который превратит реальное исследование в бессмыслицу, вызывающую у читателя неподдельное возмущение: "Какого лешего эти ученые занимаются такой чушью!" Речь может идти, например, про то, что физики собираются создать черные дыры, разрушающие пространство, или что они изучают вычислительную мощность компьютера размером со вселенную, или что они потратили сотни миллионов долларов, чтобы синтезировать божественную частицу, которая объясняет такое понятие как масса.
Иными словами, фундаментальная наука, отраженная журналистами, станет для массового читателя символом бессмыслицы.
А вот как я представляю себе противоположную ситуацию, к которой, я надеюсь, и стремятся хорошие популяризаторы науки. Каждая новость о научных исследованиях прежде всего осмысленна. Затем -- она верна и понятна. Она вписывается в общую последовательность предыдущих материалов по этой теме; на основании неё читатель может понять, что ждать дальше. Она содержит ссылки как на подборку более ранних новостей, так и на обзорные статьи разного уровня, а также и на оригинальные научные публикации. Наконец, она рассказывает, зачем ученые этим занимаются и какое отношения эти исследования имеют к повседнвной жизни.
В результате читатель понимает, к примеру, что цифровые фотокамеры и рентгеновские установки со сверхмалой дозой зародились не сами по себе, а как побочные продукты исследований в астрофизике и физике элементарных частиц. Что удобные путешествия на современных реактивных самолетах стали возможны благодаря созданию чрезвычайно жаропрочных сплавов, состав которых вряд ли было можно угадать без теоретических вычислений свойств веществ, основанных на квантовой механике. Что понимание возникновения и динамики магнитных бурь было бы невозможно без теоретической физики плазмы. Что эффективная разработка нефтянных месторождений в трещинноватых пористых породах стала возможна после детального изучения математиками некоторых уравнений математической физики нестандартного типа. Что сейчас разрабатываются медицинские технологии на основе некоторых идей, которые 30 лет назад обсуждались в журналах по теоретической и математической физике. Что для создания ароматных веществ с заранее заданным запахом потребуется, скорее всего, хорошее понимание колебательных энергетических уровней молекул и резонансное туннелирование электронов в рецепторах. И многое, многое другое.
В общем, читатель понимает, что комфортная жизнь, к которой он так привык, это результат не изобретательства, не спонтанного конструирования, не поиска решений наудачу, а побочный продукт науки.
Ну и если теперь вернуться к реальности, то становится ясно, что "как бы научно-популярные" сообщения многих СМИ со всей своей смесью ошибочных и правильных утверждений не дают никакой пользы читателю. Они являются шумом, который отвлекает внимание, на понимание которого читатель затрачивает усилия, и за которым он порой послушно следует. Не понимая, а что собственно, происходит, и для чего.
[Комментарии на Элементах]
Начну с общего утверждения, которое я слышал от самых разных людей:
Чем лучше знаешь предмет, про который журналист написал текст, тем четче понимаешь, насколько этот текст неграмотен.
Речь идет про журналиста "общего полету", не обладающего специальным образованием в данной теме. Сама же тема может быть почти любая -- начиная от фототехники и автомобилей и заканчивая современной математикой. Поэтому кажется разумной такая экстраполяция: если вы (равно как и журналист) не специалист в данной теме и если вы в тексте не видите ошибок, то вполне вероятно, что они там есть, но только незаметны без специального образования.
Собственно, я в статье постарался указать на такие ошибки на примере конкретной новости по физике элементарных частиц. Я хочу еще раз подчеркнуть -- можно иногда изменить одно слово или даже выбрать не тот синоним при переводе и тем самым сильно исказить смысл, причем сам журналист, не обладая нужными знаниями, этого просто не заметит.
Журналисты тут же приведут свой извечный аргумент: "Ну так не можем же мы знать всё! Значит, в любом случае придется писать на темы, в которые ни зуб ногой." Так вот, про сам этот аргумент я поговорю в другой раз, а сейчас я хочу сказать следующее. Да, сейчас ситуация в российской журналистике именно такая, что часто журналисту приходится писать по темам, в которых он ничего не понимает. Однако не надо закрывать на это глаза, не надо считать, что этой проблемы нет! Надо признать, что действительно в таких случаях стандартная новость типичного "журналиста-универсала" вполне может содержать по несколько ошибок на килобайт текста. Даже если и сам журналист, и редактор их не замечает.
Теперь поговорим про вред от ошибочного освещения научных исследований.
Первый и самый прямой вред касается неправильного освещения биомедицинских исследований. Наверно, всем очевиден вред от неприкрытой рекламы какого-нибудь медицинского прибора, действующего на основе физических законов, которые не признаются "официальной наукой". (Доверчивые люди не только отдают свои деньги за пустышку, но и теряют время, не обращаясь к врачам.)
Однако вред не всегда бывает столь прямолинеен. Иногда ошибка заключается в неправильном подборе слов, но и она может принести вред. В Рекомендациях по освещению науки и медицины в прессе, составленной британскими медиками, журналистами и учеными (частичный перевод см. тут), говорится, что ни журналисты, ни сами ученые не должны искажать истинную суть выводов, полученных в ходе исследования. В особенности, если это касается здоровья, опасности для жизни и тому подобных вещей.
Скажем, нельзя озаглавливать заметку "Возможно, совершен прорыв в лечении рака легких", если на самом деле изучался лишь какой-то мелкий процесс, который только в отдаленном будущем и при условии дальнейшего прогресса может привести к лучшему пониманию заболевания. Такой заголовок может привести к совершенно необоснованным надеждам, на основании которых человек может принимать решения, касающиеся своего здоровья. Ровно так же было бы ошибкой, приносящей вред, если бы журналист написал "Минздрав не возражает против использования этого прибора в медицине", -- что звучит очень позитивно! -- тогда как на самом деле Минздрав просто считает этот прибор безвредным, не говоря ничего про его пользу или бесполезность. Небольшая переформулировка существенно меняет отношение читателей к излагаемой информации и может повлиять на их решение относительно их собственного здоровья.
Примерно такой же уровень вреда может быть и от неправильных новостей технологии. Безграмотная статья про выбор компьютера (вот свежий пример) может привести к выбрасыванию денег на ветер, а затем и купленной продукции -- на свалку.
В общем, человек может принимать решения, руководствуясь этой информацией, что может привести к материальным потерям.
Всё это хорошо, но какой тогда может быть вред от неправильного освещения фундаментальных научных исследований? Казалось бы, кому какая разница: "одиночное рождение кварка" или "получен свободный кварк".
Действительно, ошибка в этом конкретном факте прямого вреда человеку не принесет. Вред возникает от совокупного действия многочисленных ошибок, постоянного искажения смысла, смещения акцентов и т.д. И касается этот вред не материальных благ человека, а понимания того, что его окружает, что в мире происходит, какова роль фундаментальной науки в повседневной жизни. А это в свою очередь может сказаться, например, на том, какое образование получат его дети, как они будут смотреть на мир.
Представьте себе, к примеру, такую антиутопию. Пусть все хорошие научно-популярные издания и писатели исчезли, а остались только авторы, ни в малейшей степени не понимающие науку и даже не пытающиеся избежать ошибок при описании исследований. Добавьте к этому полный запрет ученым как-либо комментировать и поправлять сообщения в СМИ. Зато -- полную свободу слова представителям "нетрадиционной науки". И наконец, предположим, что читатели действительно верят, что сообщения СМИ достаточно близко отражают реальное положение дел в науке.
Некоторые последствия легко предсказать. Во-первых, даже если бы читатель захотел вдуматься в новости, проследить логику развития в той или иной области науки, ему бы это не удалось. Сообщения СМИ противоречили бы сами себе: сначала "свободных кварков не существует", через год -- "физики открыли свободный кварк", еще через год -- "кварки, возможно, не существуют". Или например так: "квантовая механика полна парадоксов, но работает", "Физики подтвердили парадоксы квантовой механики", "Квантовая механика не работает", "Квантовая механика позволяет шифровать банковские данные". А не понимая логики развития, читатель не будет понимать и настоящую суть конкретных гипотез, фактов и достижений.
Во-вторых, любой статье можно дать такой заголовок, который превратит реальное исследование в бессмыслицу, вызывающую у читателя неподдельное возмущение: "Какого лешего эти ученые занимаются такой чушью!" Речь может идти, например, про то, что физики собираются создать черные дыры, разрушающие пространство, или что они изучают вычислительную мощность компьютера размером со вселенную, или что они потратили сотни миллионов долларов, чтобы синтезировать божественную частицу, которая объясняет такое понятие как масса.
Иными словами, фундаментальная наука, отраженная журналистами, станет для массового читателя символом бессмыслицы.
А вот как я представляю себе противоположную ситуацию, к которой, я надеюсь, и стремятся хорошие популяризаторы науки. Каждая новость о научных исследованиях прежде всего осмысленна. Затем -- она верна и понятна. Она вписывается в общую последовательность предыдущих материалов по этой теме; на основании неё читатель может понять, что ждать дальше. Она содержит ссылки как на подборку более ранних новостей, так и на обзорные статьи разного уровня, а также и на оригинальные научные публикации. Наконец, она рассказывает, зачем ученые этим занимаются и какое отношения эти исследования имеют к повседнвной жизни.
В результате читатель понимает, к примеру, что цифровые фотокамеры и рентгеновские установки со сверхмалой дозой зародились не сами по себе, а как побочные продукты исследований в астрофизике и физике элементарных частиц. Что удобные путешествия на современных реактивных самолетах стали возможны благодаря созданию чрезвычайно жаропрочных сплавов, состав которых вряд ли было можно угадать без теоретических вычислений свойств веществ, основанных на квантовой механике. Что понимание возникновения и динамики магнитных бурь было бы невозможно без теоретической физики плазмы. Что эффективная разработка нефтянных месторождений в трещинноватых пористых породах стала возможна после детального изучения математиками некоторых уравнений математической физики нестандартного типа. Что сейчас разрабатываются медицинские технологии на основе некоторых идей, которые 30 лет назад обсуждались в журналах по теоретической и математической физике. Что для создания ароматных веществ с заранее заданным запахом потребуется, скорее всего, хорошее понимание колебательных энергетических уровней молекул и резонансное туннелирование электронов в рецепторах. И многое, многое другое.
В общем, читатель понимает, что комфортная жизнь, к которой он так привык, это результат не изобретательства, не спонтанного конструирования, не поиска решений наудачу, а побочный продукт науки.
Ну и если теперь вернуться к реальности, то становится ясно, что "как бы научно-популярные" сообщения многих СМИ со всей своей смесью ошибочных и правильных утверждений не дают никакой пользы читателю. Они являются шумом, который отвлекает внимание, на понимание которого читатель затрачивает усилия, и за которым он порой послушно следует. Не понимая, а что собственно, происходит, и для чего.
[Комментарии на Элементах]
24 февраля 2007 г.
Необъясненные эксперименты в физике элементарных частиц
Одно время я на scientific.ru вел проект под названием Текущие открытия в физике элементарных частиц (верхняя часть странички). Там я собирал недавние эксперименты в физике элементарных частиц, которые не получили еще общепринятого объяснения.
Ту страничку я не обновлял с 2003 года. Сейчас очень кратко отмечу прогресс, произошедший с тех пор.
Исчезли сами собой после нового набора данных и нового анализа:
b-проблема
Природа мезона Ds*(2317)
Открытие бариона с положительной странностью
а также недавний загадочный результат эксперимента PVLAS
Остались в подвешенном состоянии из-за прекращения эксперимента:
Хиггсовский бозон на ALEPH
Двойной безнейтринный бета-распад
Удовлетворительного объяснения пока не найдено:
Проблемы с углом Вайнберга в эксперменте NuTeV
"Аномальный" аномальный магнитный момент мюона
Неподтвержденные никем результаты:
Зависимость скорости фотонов от энергии
Связанные состояний протона и антипротона
Может, кто-нибудь еще добавит что-то в этот список?
[Комментарии на Элементах]
Ту страничку я не обновлял с 2003 года. Сейчас очень кратко отмечу прогресс, произошедший с тех пор.
Исчезли сами собой после нового набора данных и нового анализа:
b-проблема
Природа мезона Ds*(2317)
Открытие бариона с положительной странностью
а также недавний загадочный результат эксперимента PVLAS
Остались в подвешенном состоянии из-за прекращения эксперимента:
Хиггсовский бозон на ALEPH
Двойной безнейтринный бета-распад
Удовлетворительного объяснения пока не найдено:
Проблемы с углом Вайнберга в эксперменте NuTeV
"Аномальный" аномальный магнитный момент мюона
Неподтвержденные никем результаты:
Зависимость скорости фотонов от энергии
Связанные состояний протона и антипротона
Может, кто-нибудь еще добавит что-то в этот список?
[Комментарии на Элементах]
Динамический хиггсовский эффект
На днях в архиве появился интересный епринт hep-th/0702175. Речь в этой статье идет про эффект Хиггса, зависящий от времени.
Эффект Хиггса -- это такое явление в физике элементарных частиц, благодаря которому у частиц появляются массы (и при этом не нарушаются некотороые условия), хотя изначально все частицы были безмассовые. Для этого предполагается, что наш мир пронизывает особое хиггсовское поле. Частицы, летая туда-сюда, вынуждены "продираться" сквозь это поле, и из-за этого частицы движется под действием внешних сил так, словно у неё есть масса. Чем сильнее частица связана с хиггсовским полем, тем больше её масса.
Но всё это -- лишь конечный этап сложного процесса спонтанного нарушения симметрии. До этого нарушения у частиц массы нет, после этого нарущшения -- масса появляется. Но нарушение симметрии происходит не мгновенно, а как-то разворачивается во времени. Поэтому возникает вопрос: а что случается с частицами в процессе этого явления?
В этой статье как раз исследуется то, какие изменения претерпевают частицы, если значение хиггсовского поля как-то меняется с течением времени, например, периодически осциллирует относительно среднего значения.
Самое очевидное явление -- масса частиц будет "дрожать" относительно среднего значения. Но даже не это самое интересное. Оказывается, в таком осциллирующем хиггсовском поле будут обильно рождаться частицы. Этот процесс рождения частиц будет влиять на осцилляции хиггсовского поля и будет играть роль диссипационного механизма, приводящего к затуханиям осцилляций.
Вероятно, кроме чисто теоретического интереса, это может быть полезным для моделей ранней вселенной, где, по всей видимости, тоже происходили разного рода фазовые переходы.
[Комментарии на Элементах]
Эффект Хиггса -- это такое явление в физике элементарных частиц, благодаря которому у частиц появляются массы (и при этом не нарушаются некотороые условия), хотя изначально все частицы были безмассовые. Для этого предполагается, что наш мир пронизывает особое хиггсовское поле. Частицы, летая туда-сюда, вынуждены "продираться" сквозь это поле, и из-за этого частицы движется под действием внешних сил так, словно у неё есть масса. Чем сильнее частица связана с хиггсовским полем, тем больше её масса.
Но всё это -- лишь конечный этап сложного процесса спонтанного нарушения симметрии. До этого нарушения у частиц массы нет, после этого нарущшения -- масса появляется. Но нарушение симметрии происходит не мгновенно, а как-то разворачивается во времени. Поэтому возникает вопрос: а что случается с частицами в процессе этого явления?
В этой статье как раз исследуется то, какие изменения претерпевают частицы, если значение хиггсовского поля как-то меняется с течением времени, например, периодически осциллирует относительно среднего значения.
Самое очевидное явление -- масса частиц будет "дрожать" относительно среднего значения. Но даже не это самое интересное. Оказывается, в таком осциллирующем хиггсовском поле будут обильно рождаться частицы. Этот процесс рождения частиц будет влиять на осцилляции хиггсовского поля и будет играть роль диссипационного механизма, приводящего к затуханиям осцилляций.
Вероятно, кроме чисто теоретического интереса, это может быть полезным для моделей ранней вселенной, где, по всей видимости, тоже происходили разного рода фазовые переходы.
[Комментарии на Элементах]
27 января 2007 г.
Неэрмитовая квантовая механика
Листая последний номер PRL, набрел на интересную статью Faster than Hermitian Quantum Mechanics (она же quant-ph/0609032), посвященную неэрмитовой квантовой механике. Чуть-чуть почитал по этой теме -- оказалась интересная вещь.
Философия
Сначала поясню ситуацию в "философском разрезе". Вот есть у нас некая физическая реальность: наблюдения, эксперименты, эмпирические закономерности и т.п. Пытаясь обобщить эти данные, свести длинную цепочку численных значений измеренных величин к некоторому общему закону, мы строим некую теорию выбранного круга явлений.
Зачастую теория строится практически форсированно, сама собой, и получается она при этом ровно настолько "широкой", насколько нужно для описания имеющихся данных. Однако иногда выясняется, что такая конструкция не единственна (впрочем, единственность никто и не доказал). А именно, можно построить и более широкую разновидность этой же теории, которая будет по-прежнему описывать имеющиеся данные, по при этом допускать еще и некоторые экзотические ситуации.
Подчеркну, что речь идет не про другую теорию (каковой является, например, СТО по отношении к механике Ньютона), а про более широкую разновидность той же самой теории. Эта более широкая разновидность основывается на тех же фундаментальных принципах, но использует более широкий класс математических объектов, допустимых этими принципами.
Например, про более широкую разновидность специальной теории относительности я как-то описал в заметке Ну очень специальная теории относительности! Неэрмитовая квантовая механика тоже является более широкой разновидностью квантовой механики.
Основная мысль
Главная идея неэрмитовой квантовой механики состоит в следующем. Величины, которые мы измеряем в эксперименте, всегда описываются вещественными, а не комплексными числами. В квантовой теории каждой наблюдаемой величине ставится в соответствие оператор, действующий в пространстве векторов состояния, собственные значения которого и есть результаты измерения. Наше требование при конструировании операторов состоит в том, что их собственные числа должны быть вещественны.
Эрмитовы операторы обладают только вещественными собственными числами, поэтому постулировав, что все операторы физических наблюдаемых эрмитовы, мы автоматически удовлетворяем нашему требованию. Это достаточный, но вовсе не необходимый выбор! Действительно, неэрмитовы операторы тоже могут обладать вещественным спектром. Поэтому строго говоря, нет необходимости ограничиваться только эрмитовыми операторами
при конструировнии квантовой механики.
Однако это не единственная модификация. Неэрмитовый гамильтониан, пусть даже и обладающий вещественными собственными числами, приводит к неунитарному оператору эволюции во времени. Это необходимо устранить, так как неунитарная эволюция во времени приводит к несохранению нормы векторов состояния, а значит, вероятность куда-то утекает из нашего мира.
Устраняется это переопределением скалярного произведения, а значит, и нормы, в гильбертовом пространстве. Дуальный вектор состояния уже не определяется как эрмитово-сопряженный вектор (комплексно сопряженный и транспонированный), а строится новым, согласованным с гамильтонианом способом, так чтобы норма любого вектора состояния при эволюции во времени оставалась неизменной.
Таким образом, новшество сводится лишь к более широкому использованию свободы построение пространства дуальных векторов. В каком-то смысле, в гильбертовом пространстве вводится нетривиальная метрика.
Конкретная реализация и примеры
Конкретная реализация неэрмитовой квантовй механики, которой вот уже десяток лет занимается Carl Bender с коллегами (см. например статью hep-th/0303005), состоит в замене эрмитового сопряжения на преобразование PT-симметрии. Преобразование P-симметрии (отражение пространственных координат) состоит, например, в замене знака перед оператором координаты и импульса, а преобразование T-симметрии (обращение времени) состоит в изменении знака импульса (но не координаты), а также в замене i на -i. При PT-преобразовании сохраняется алгебра Гейзенберга (т.к. сохраняется [x,p]=i), т.е. PT-преобрзование является каноническим преобразованием.
Стандартный гамильтониан одночастичной квантовой задачи, например, в задаче одномерного гармонического осциллятора (в безразмерных величинах)
H = p2 + x2
эрмитов, и кроме того, инвариантен относительно PT-преобразования. Теперь можно рассмотреть новый гамильтониан
H = p2 + x2 (i x)с
который уже неэрмитов, но по-прежнему инвариантен относительно PT-преобразования. Таким образом, если вместо симметрии гамильтониана при эрмитовом сопряжении накладывать более физическое (с точки зрения автора) требование симметрии относительно PT-преобразования, то возникает целый новый класс допустимых задач.
Доказано, что при с > 0 и при аккуратной переформулировке граничных условий для задачи Штурма-Лиувилля уравнение Hψ(x) = E ψ(x) с этим гамильтонианом имеет чисто вещественный спектр. Кажется естественным определить скалярное двух волновых функций как
< f | g > = ∫ [PT(f)] g dx.
Однако при таком определении возникает индефенитная метрика: половина собственных состояний H обладает положительной нормой, а половина -- отрицательной. Автор справляется с этой проблемой хитрым способом, подсмотренным им у Дирака (Дирак получил вначале состояния электрона с отрицательной энергией, а потом нашел им правильную интерпретацию). Он ввел C-преобразование, некий аналог зарядового сопряжения, причем оператор C-преобразования коммутирует с PT и с H (и при этом C-преобразование зависит от H). Если теперь построить скалярное произведение по закону
< f | g > = ∫ [CPT(f)] g dx
то оказывается все проблемы устраняются: метрика положительно определена и согласована с гамильтонианом, так что норма векторов сохраняется рпи эволюции во времени. Правда, возникает забавное явление -- метрика сама становится динамической величиной, зависящей от гамильтониана. Начинает смутно прорисовываться ситуация, похожая на ОТО.
Некоторые приложения
Возникает закономерный вопрос: а не сводится ли неэрмитовая квантовая механика к обычной некой нетривиальной заменой переменных? Отчасти это так. Было доказано, что для любого PT-симметричного гамильтониана с вещественным спектром существует преобразование, переводящее его в эрмитовый гамильтониан с тем же спектром. Однако это преобразование приводит к перестройке гильбертова пространства векторов состояний, и потому полная эквивалентность отсутствует.
В частности, в статье Faster than Hermitian Quantum Mechanics описано очень интересное явление, возникающее при решении задачи о "квантовой брахистохроне" в неэрмитовой квантовой механике.
Пусть есть два состояния -- начальное и конечное. Задача состоит в том, чтоб подобрать такой гамильтониан с фиксированным спектром, оператор эволюции которого переводит начальное состояние в конечное за кратчайшее время.
В эрмитовой квантовой механике это время конечно. Это связано с тем, что "скорость эволюции" в гильбертовом пространстве ограничена шириной спектра гамильтониана. Поэтому кратчайшее время -- это дистанция между векторами состояния поделить на скорость.
В неэрмитовой квантовой механике, оказывается, можно сделать это время эволюции сколь угодно малым (этому и посвящена статья). Автор предлагает такую интерпретацию этого факта. Расстояние между двумя векторами, посчитанное по обычным правилам, может быть большим, но с точки зрения метрики оно может быть сделано сколь угодно малым. Это похоже на ситуацию в ОТО с "червоточинами", которые позволяют сразу перейти в отдаленную часть вселенной, минуя ограничение, связанное со скоростью света. Мне лично кажется, это довольно спекулятивная аналогия, основанная только на поверхнотной математической похожести явлений.
Возникает вопрос: а можно ли проверить экспериментально возможность такой сверхбыстрой эволюции квантового состояния? (Если она будет подтверждена, то это будет однозначным аргументом в пользу более широкой версии квантовой механики.) Вот это непонятно. С одной стороны, вроде бы квантовая механика до сих пор не встречалась с какими-либо трудностями при описании свободной эволюции состояний. С другой стороны, такой эксперимент "возможен" и даже описан в статье -- правда, для этого надо использовать статическое магнитное поле с мнимыми компонентами. Не очень понятно, есть ли вообще какой-то физический смысл в этом понятии.
Однако возникает желание подумать и в еще одном направлении: а нельзя ли сюда приплести "коллапс" волновой функции при измерении? Но насколько это плодотворная мысль, не знаю.
[Комментарии на Элементах]
Философия
Сначала поясню ситуацию в "философском разрезе". Вот есть у нас некая физическая реальность: наблюдения, эксперименты, эмпирические закономерности и т.п. Пытаясь обобщить эти данные, свести длинную цепочку численных значений измеренных величин к некоторому общему закону, мы строим некую теорию выбранного круга явлений.
Зачастую теория строится практически форсированно, сама собой, и получается она при этом ровно настолько "широкой", насколько нужно для описания имеющихся данных. Однако иногда выясняется, что такая конструкция не единственна (впрочем, единственность никто и не доказал). А именно, можно построить и более широкую разновидность этой же теории, которая будет по-прежнему описывать имеющиеся данные, по при этом допускать еще и некоторые экзотические ситуации.
Подчеркну, что речь идет не про другую теорию (каковой является, например, СТО по отношении к механике Ньютона), а про более широкую разновидность той же самой теории. Эта более широкая разновидность основывается на тех же фундаментальных принципах, но использует более широкий класс математических объектов, допустимых этими принципами.
Например, про более широкую разновидность специальной теории относительности я как-то описал в заметке Ну очень специальная теории относительности! Неэрмитовая квантовая механика тоже является более широкой разновидностью квантовой механики.
Основная мысль
Главная идея неэрмитовой квантовой механики состоит в следующем. Величины, которые мы измеряем в эксперименте, всегда описываются вещественными, а не комплексными числами. В квантовой теории каждой наблюдаемой величине ставится в соответствие оператор, действующий в пространстве векторов состояния, собственные значения которого и есть результаты измерения. Наше требование при конструировании операторов состоит в том, что их собственные числа должны быть вещественны.
Эрмитовы операторы обладают только вещественными собственными числами, поэтому постулировав, что все операторы физических наблюдаемых эрмитовы, мы автоматически удовлетворяем нашему требованию. Это достаточный, но вовсе не необходимый выбор! Действительно, неэрмитовы операторы тоже могут обладать вещественным спектром. Поэтому строго говоря, нет необходимости ограничиваться только эрмитовыми операторами
при конструировнии квантовой механики.
Однако это не единственная модификация. Неэрмитовый гамильтониан, пусть даже и обладающий вещественными собственными числами, приводит к неунитарному оператору эволюции во времени. Это необходимо устранить, так как неунитарная эволюция во времени приводит к несохранению нормы векторов состояния, а значит, вероятность куда-то утекает из нашего мира.
Устраняется это переопределением скалярного произведения, а значит, и нормы, в гильбертовом пространстве. Дуальный вектор состояния уже не определяется как эрмитово-сопряженный вектор (комплексно сопряженный и транспонированный), а строится новым, согласованным с гамильтонианом способом, так чтобы норма любого вектора состояния при эволюции во времени оставалась неизменной.
Таким образом, новшество сводится лишь к более широкому использованию свободы построение пространства дуальных векторов. В каком-то смысле, в гильбертовом пространстве вводится нетривиальная метрика.
Конкретная реализация и примеры
Конкретная реализация неэрмитовой квантовй механики, которой вот уже десяток лет занимается Carl Bender с коллегами (см. например статью hep-th/0303005), состоит в замене эрмитового сопряжения на преобразование PT-симметрии. Преобразование P-симметрии (отражение пространственных координат) состоит, например, в замене знака перед оператором координаты и импульса, а преобразование T-симметрии (обращение времени) состоит в изменении знака импульса (но не координаты), а также в замене i на -i. При PT-преобразовании сохраняется алгебра Гейзенберга (т.к. сохраняется [x,p]=i), т.е. PT-преобрзование является каноническим преобразованием.
Стандартный гамильтониан одночастичной квантовой задачи, например, в задаче одномерного гармонического осциллятора (в безразмерных величинах)
H = p2 + x2
эрмитов, и кроме того, инвариантен относительно PT-преобразования. Теперь можно рассмотреть новый гамильтониан
H = p2 + x2 (i x)с
который уже неэрмитов, но по-прежнему инвариантен относительно PT-преобразования. Таким образом, если вместо симметрии гамильтониана при эрмитовом сопряжении накладывать более физическое (с точки зрения автора) требование симметрии относительно PT-преобразования, то возникает целый новый класс допустимых задач.
Доказано, что при с > 0 и при аккуратной переформулировке граничных условий для задачи Штурма-Лиувилля уравнение Hψ(x) = E ψ(x) с этим гамильтонианом имеет чисто вещественный спектр. Кажется естественным определить скалярное двух волновых функций как
< f | g > = ∫ [PT(f)] g dx.
Однако при таком определении возникает индефенитная метрика: половина собственных состояний H обладает положительной нормой, а половина -- отрицательной. Автор справляется с этой проблемой хитрым способом, подсмотренным им у Дирака (Дирак получил вначале состояния электрона с отрицательной энергией, а потом нашел им правильную интерпретацию). Он ввел C-преобразование, некий аналог зарядового сопряжения, причем оператор C-преобразования коммутирует с PT и с H (и при этом C-преобразование зависит от H). Если теперь построить скалярное произведение по закону
< f | g > = ∫ [CPT(f)] g dx
то оказывается все проблемы устраняются: метрика положительно определена и согласована с гамильтонианом, так что норма векторов сохраняется рпи эволюции во времени. Правда, возникает забавное явление -- метрика сама становится динамической величиной, зависящей от гамильтониана. Начинает смутно прорисовываться ситуация, похожая на ОТО.
Некоторые приложения
Возникает закономерный вопрос: а не сводится ли неэрмитовая квантовая механика к обычной некой нетривиальной заменой переменных? Отчасти это так. Было доказано, что для любого PT-симметричного гамильтониана с вещественным спектром существует преобразование, переводящее его в эрмитовый гамильтониан с тем же спектром. Однако это преобразование приводит к перестройке гильбертова пространства векторов состояний, и потому полная эквивалентность отсутствует.
В частности, в статье Faster than Hermitian Quantum Mechanics описано очень интересное явление, возникающее при решении задачи о "квантовой брахистохроне" в неэрмитовой квантовой механике.
Пусть есть два состояния -- начальное и конечное. Задача состоит в том, чтоб подобрать такой гамильтониан с фиксированным спектром, оператор эволюции которого переводит начальное состояние в конечное за кратчайшее время.
В эрмитовой квантовой механике это время конечно. Это связано с тем, что "скорость эволюции" в гильбертовом пространстве ограничена шириной спектра гамильтониана. Поэтому кратчайшее время -- это дистанция между векторами состояния поделить на скорость.
В неэрмитовой квантовой механике, оказывается, можно сделать это время эволюции сколь угодно малым (этому и посвящена статья). Автор предлагает такую интерпретацию этого факта. Расстояние между двумя векторами, посчитанное по обычным правилам, может быть большим, но с точки зрения метрики оно может быть сделано сколь угодно малым. Это похоже на ситуацию в ОТО с "червоточинами", которые позволяют сразу перейти в отдаленную часть вселенной, минуя ограничение, связанное со скоростью света. Мне лично кажется, это довольно спекулятивная аналогия, основанная только на поверхнотной математической похожести явлений.
Возникает вопрос: а можно ли проверить экспериментально возможность такой сверхбыстрой эволюции квантового состояния? (Если она будет подтверждена, то это будет однозначным аргументом в пользу более широкой версии квантовой механики.) Вот это непонятно. С одной стороны, вроде бы квантовая механика до сих пор не встречалась с какими-либо трудностями при описании свободной эволюции состояний. С другой стороны, такой эксперимент "возможен" и даже описан в статье -- правда, для этого надо использовать статическое магнитное поле с мнимыми компонентами. Не очень понятно, есть ли вообще какой-то физический смысл в этом понятии.
Однако возникает желание подумать и в еще одном направлении: а нельзя ли сюда приплести "коллапс" волновой функции при измерении? Но насколько это плодотворная мысль, не знаю.
[Комментарии на Элементах]
18 января 2007 г.
Новости химии
Химия на Элементах представлена мало, поэтому хочу поделиться ссылкой на прекрасную ленту новостей химической науки.
Новости практически ежедневные, очень интересные, из самых разных областей химии.
Обратите особенное внимание на статьи Горячая десятка химиков – 2006 и Самое интересное в химии в 2006 году.
[Комментарии на Элементах]
Новости практически ежедневные, очень интересные, из самых разных областей химии.
Обратите особенное внимание на статьи Горячая десятка химиков – 2006 и Самое интересное в химии в 2006 году.
[Комментарии на Элементах]
17 января 2007 г.
Эмпирические и фундаментальные теории
Мне хочется сделать одно методологическое пояснение к недавней новости Наступает новая эра в теоретической ядерной физике. Главное утверждение этой заметки состоит в том, что ядерная физика, которая вот уже лет 70 оставалась чисто эмпирической теорией, стала мало-помалу выводиться из первых принципов, из динамики кварков и глюонов.
Может показаться не очень понятным, а какая вообще разница -- эмпирическая у нас теория или фундаментальная? Чем одно предпочтительнее другого? Про это я и хотел бы здесь подробно рассказать.
1. Что такое эмпирические законы и что такое фундаментальная теория.
Рассмотрим конкретный пример -- движение планет вокруг Солнца.
Вначале Тихо Браге много лет следил за положением планет, но не пытался найти в них математический закон. Затем Кеплер взял эти записи и выяснил, что планеты движутся по эллипсам, в одном из фокусов которых находится Солнце. Кроме того, он заметил, что движение планет по эллипсам не равномерное, а такое, чтоб выполнялись некоторые законы (известные сейчас как законы Кеплера).
Это -- пример описательной, эмпирической теории. У нас есть формула -- т.е. просто обобщение экспериментальных данных, и вроде как природа этой формуле подчиняется, и на основе её можно делать предсказания относительно движения этих планет в будущем. Однако она не вычислена, не выведена ниоткуда, а значит, непонятно, какое свойство природы она описывает. Появляются вопросы, на которые в рамках этой описательной теории не ответишь. Обязаны ли быть только эллипсы, или же возможны другие орбиты, например, в форме восьмерки, а нам просто повезло, что планеты в солнечной системе вращаются именно так? А какого размера могут быть эти эллипсы, есть ли какие-то ограничения на их полуоси, на их вытянутость? А каковы будут орбиты планет, вращающиеся вокруг других звезд -- может всё это зависит от свойства центральной звезды? А как будут вращаться вокруг Солнца очень маленькие тела, размером с кирпич?
В общем, в эмпирических теориях/моделях каждый конкретный случай -- это отдельная сущность, отдельная данность свыше. Нет универсальности, нет понимания, в чём причина таких простых законов. (А они действительно чрезвычайно просты по сравнению теми петляниям и попытным движением, которое мы ВИДИМ с Земли.)
Ньютон построил точную, фундаментальную, глубинную теорию этого движения. Исходя из одного единственного закона -- всемирного тяготения -- он вывел эллипсы, все законы Кеплера, для всех планет и вообще для любых тел. Поставленные выше вопросы сразу же получают ответ.
Итак, в фундаментальные теории данность свыше только одна -- исходные уравнения. Все частные случае отсюда следуют.
2. Еще немного про эмпирические теории.
Примеры разных эмпирических теорий:
-- вся средневековая (ал)химия до Лавуазье
-- термодинамика в 19 веке, до развития статистической физики
-- периодический закон Менделеева до создания квантовой физики
-- ранняя теория атомных спектров, основанная на постулатах Бора, до создания квантовой механики
-- множество теорий, описывающих свойства вещества, -- магнетизм, сверхпроводимость, сверхтекучесть, и т.п. -- до их микроскопической формулировки.
3. Теперь вернемся к ядерным силам.
Законы Кеплера -- это еще самая "чистейшая" из эмпирических теорий. В ней нет подгоночных параметров. В большинстве же эмпирических теорий не просто постулируются (на основе экспериментальных наблюдений) какие-то простые законы, но еще в них присутствуют некие численные параметры. Эти параметры просто подбираются так, чтоб данные описывались наилучшим образом. Откуда эти параметры берутся и почему они равны именно этим значениям, в эмпирических теориях не обсуждается.
Ядерная физика, которая есть просто определенная разновидность адронной физики низких энергий, одна из самых "грязных" -- в смысле, одна из самых "запараметризованных" -- из эмпирических теорий.
Экспериментальных данных много, поэтому обобщить их, увидеть в них какие-то простые закономерности нетрудно. Эти закономерности формулируются в виде ядерных нуклон-нуклонных сил плюс еще некоторые простые законы (на них были основаны ранние модели ядра: капельная модель, оболочечная модель). Это всё эмпирические теории. На основе них можно производить расчеты, чем физики-ядерщики уже 70 лет и занимаются. Можно даже предсказывать свойства еще не открытых ядер и т.д. Это всё работает.
Настоящего теоретика это не может удовлетворить именно по той же причине, что и раньше. В таком описании каждая экспериментальная особенность -- это "данность свыше". Профиль нуклон-нуклонных сил, профиль трехнуклонного взаимодействия (оно вовсе не разлагается в простую сумму попарных сил), сложный закон изменения этих сил при повышении температуры в ядре, тенденция образовывать особенно устойчивые островки внутри ядер...
Но это всё были только нуклоны. А ведь в ядро можно поместить и более экзотические частицы, лямбда-гипероны, сигма-гипероны и т.д. и изучать свойства этих гипер-ядер. И опять -- для каждого нового гиперона приходится извлекать из опыта закон парного взаимодействия, как друг с другом, так и с нуклонами, и т.д.
ВСЕ эти вещи в эмпирической теории приходится определять из экспериментальных данных отдельно. Численные параметры в этих моделях -- массы, коэффициенты связи разных частиц друг с другом и т.д. -- тоже не сосчитаешь, а надо подбирать вручную, чтоб кривые наилучшим образом описывали данные.
Это очень досадно, потому что мы-то знаем, что всё это должно сводиться к взаимодействую кварков и глюонов. Более того, физики знают ТО САМОЕ уравнение, из решения которого должно получиться всё вышеперечисленное: и массы, и коэффициенты связи, и профиль потенциала нуклон-нуклонных сил. Беда лишь в том, что это уравнение очень трудно решить.
Это примерно, как если бы у преступника в руках была банковская карточка с миллионом долларов, но он не знал бы пин-кода :) Он бы всеми силами искал способ его узнать, не находил бы себе места. Примерно такое ощущение и у физиков, только они сдерживаются в проявлениях :)
Подведу итог про теории разного уровня.
1. Чисто эмпирические теории. Есть законы, полученные обобщением экспериментальных данных, но откуда они берутся и что подразумевают -- непонятно. Никакой глубокой точной теории нет.
2. Глубинный закон есть, но он слишком сложен, и его решения для изученных в эксперименте ситуаций получить не удается. В этом случае он ничем нам не помогает, и нам всё равно приходится прибегать к эмпирическим моделям.
3. Глубинные уравнения удается решить численно, на компьютере. Тогда законы, построенные в эмпирической теории можно проверять. Если они подтверждаются, то говорят, что этот закон выведен из первых принципов.
4. Глубинная теория допускает аналитическое решение. Есть формулы для всего, что надо.
В заметке Наступает новая эра в теоретической ядерной физике как раз описывается, что ядерная физика постепенно переходит из категории 2 в категорию 3.
[Комментарии на Элементах]
Может показаться не очень понятным, а какая вообще разница -- эмпирическая у нас теория или фундаментальная? Чем одно предпочтительнее другого? Про это я и хотел бы здесь подробно рассказать.
1. Что такое эмпирические законы и что такое фундаментальная теория.
Рассмотрим конкретный пример -- движение планет вокруг Солнца.
Вначале Тихо Браге много лет следил за положением планет, но не пытался найти в них математический закон. Затем Кеплер взял эти записи и выяснил, что планеты движутся по эллипсам, в одном из фокусов которых находится Солнце. Кроме того, он заметил, что движение планет по эллипсам не равномерное, а такое, чтоб выполнялись некоторые законы (известные сейчас как законы Кеплера).
Это -- пример описательной, эмпирической теории. У нас есть формула -- т.е. просто обобщение экспериментальных данных, и вроде как природа этой формуле подчиняется, и на основе её можно делать предсказания относительно движения этих планет в будущем. Однако она не вычислена, не выведена ниоткуда, а значит, непонятно, какое свойство природы она описывает. Появляются вопросы, на которые в рамках этой описательной теории не ответишь. Обязаны ли быть только эллипсы, или же возможны другие орбиты, например, в форме восьмерки, а нам просто повезло, что планеты в солнечной системе вращаются именно так? А какого размера могут быть эти эллипсы, есть ли какие-то ограничения на их полуоси, на их вытянутость? А каковы будут орбиты планет, вращающиеся вокруг других звезд -- может всё это зависит от свойства центральной звезды? А как будут вращаться вокруг Солнца очень маленькие тела, размером с кирпич?
В общем, в эмпирических теориях/моделях каждый конкретный случай -- это отдельная сущность, отдельная данность свыше. Нет универсальности, нет понимания, в чём причина таких простых законов. (А они действительно чрезвычайно просты по сравнению теми петляниям и попытным движением, которое мы ВИДИМ с Земли.)
Ньютон построил точную, фундаментальную, глубинную теорию этого движения. Исходя из одного единственного закона -- всемирного тяготения -- он вывел эллипсы, все законы Кеплера, для всех планет и вообще для любых тел. Поставленные выше вопросы сразу же получают ответ.
Итак, в фундаментальные теории данность свыше только одна -- исходные уравнения. Все частные случае отсюда следуют.
2. Еще немного про эмпирические теории.
Примеры разных эмпирических теорий:
-- вся средневековая (ал)химия до Лавуазье
-- термодинамика в 19 веке, до развития статистической физики
-- периодический закон Менделеева до создания квантовой физики
-- ранняя теория атомных спектров, основанная на постулатах Бора, до создания квантовой механики
-- множество теорий, описывающих свойства вещества, -- магнетизм, сверхпроводимость, сверхтекучесть, и т.п. -- до их микроскопической формулировки.
3. Теперь вернемся к ядерным силам.
Законы Кеплера -- это еще самая "чистейшая" из эмпирических теорий. В ней нет подгоночных параметров. В большинстве же эмпирических теорий не просто постулируются (на основе экспериментальных наблюдений) какие-то простые законы, но еще в них присутствуют некие численные параметры. Эти параметры просто подбираются так, чтоб данные описывались наилучшим образом. Откуда эти параметры берутся и почему они равны именно этим значениям, в эмпирических теориях не обсуждается.
Ядерная физика, которая есть просто определенная разновидность адронной физики низких энергий, одна из самых "грязных" -- в смысле, одна из самых "запараметризованных" -- из эмпирических теорий.
Экспериментальных данных много, поэтому обобщить их, увидеть в них какие-то простые закономерности нетрудно. Эти закономерности формулируются в виде ядерных нуклон-нуклонных сил плюс еще некоторые простые законы (на них были основаны ранние модели ядра: капельная модель, оболочечная модель). Это всё эмпирические теории. На основе них можно производить расчеты, чем физики-ядерщики уже 70 лет и занимаются. Можно даже предсказывать свойства еще не открытых ядер и т.д. Это всё работает.
Настоящего теоретика это не может удовлетворить именно по той же причине, что и раньше. В таком описании каждая экспериментальная особенность -- это "данность свыше". Профиль нуклон-нуклонных сил, профиль трехнуклонного взаимодействия (оно вовсе не разлагается в простую сумму попарных сил), сложный закон изменения этих сил при повышении температуры в ядре, тенденция образовывать особенно устойчивые островки внутри ядер...
Но это всё были только нуклоны. А ведь в ядро можно поместить и более экзотические частицы, лямбда-гипероны, сигма-гипероны и т.д. и изучать свойства этих гипер-ядер. И опять -- для каждого нового гиперона приходится извлекать из опыта закон парного взаимодействия, как друг с другом, так и с нуклонами, и т.д.
ВСЕ эти вещи в эмпирической теории приходится определять из экспериментальных данных отдельно. Численные параметры в этих моделях -- массы, коэффициенты связи разных частиц друг с другом и т.д. -- тоже не сосчитаешь, а надо подбирать вручную, чтоб кривые наилучшим образом описывали данные.
Это очень досадно, потому что мы-то знаем, что всё это должно сводиться к взаимодействую кварков и глюонов. Более того, физики знают ТО САМОЕ уравнение, из решения которого должно получиться всё вышеперечисленное: и массы, и коэффициенты связи, и профиль потенциала нуклон-нуклонных сил. Беда лишь в том, что это уравнение очень трудно решить.
Это примерно, как если бы у преступника в руках была банковская карточка с миллионом долларов, но он не знал бы пин-кода :) Он бы всеми силами искал способ его узнать, не находил бы себе места. Примерно такое ощущение и у физиков, только они сдерживаются в проявлениях :)
Подведу итог про теории разного уровня.
1. Чисто эмпирические теории. Есть законы, полученные обобщением экспериментальных данных, но откуда они берутся и что подразумевают -- непонятно. Никакой глубокой точной теории нет.
2. Глубинный закон есть, но он слишком сложен, и его решения для изученных в эксперименте ситуаций получить не удается. В этом случае он ничем нам не помогает, и нам всё равно приходится прибегать к эмпирическим моделям.
3. Глубинные уравнения удается решить численно, на компьютере. Тогда законы, построенные в эмпирической теории можно проверять. Если они подтверждаются, то говорят, что этот закон выведен из первых принципов.
4. Глубинная теория допускает аналитическое решение. Есть формулы для всего, что надо.
В заметке Наступает новая эра в теоретической ядерной физике как раз описывается, что ядерная физика постепенно переходит из категории 2 в категорию 3.
[Комментарии на Элементах]
4 января 2007 г.
Новшество в журнале Physical Review Letters
Редакция PRL пошла на небольшой эксперимент. Изначально, полвека назад этот журнал создавался для публикации коротких сообщений, которые должны быть интересны и понятны не только специалистам в своей узкой области, но и вообще всем физикам. За пошедшие годы не только многократно вырос объем издания (сейчас в PRL еженедельно публикается за полсотни статей), но и сами статьи стали снова тяготеть в узкую специфичность. При этом отбор статей в PRL становится всё более жестким.
Для того, чтоб хоть как-то восстановить общефизическую доступность публикаций в PRL для широкого читателя, редакция решила еженедельно отмечать по нескольку статей, которые не только интересны, но и написаны особенно доступно. Такие статьи отмечаются специальным значком (см. страницу выпуска от 5 января).
Так что если у кого есть время для ознакомления с современными достижениями физики, рекомендую проглядывать эти статьи.
[Комментарии на Элементах]
Для того, чтоб хоть как-то восстановить общефизическую доступность публикаций в PRL для широкого читателя, редакция решила еженедельно отмечать по нескольку статей, которые не только интересны, но и написаны особенно доступно. Такие статьи отмечаются специальным значком (см. страницу выпуска от 5 января).
Так что если у кого есть время для ознакомления с современными достижениями физики, рекомендую проглядывать эти статьи.
[Комментарии на Элементах]
2 января 2007 г.
По улицам ходила большая крокодила...
Что бы вы подумали, если бы выглянув из окна, увидели вот такую бандуру, движущуюся по улицам вашего города?
Это главный спектрометр тритиевого эксперимента Катрина едет к месту своей работы. Подробности и картинки.
[Комментарии на Элементах]
Это главный спектрометр тритиевого эксперимента Катрина едет к месту своей работы. Подробности и картинки.
[Комментарии на Элементах]
Теоретическая физика-2006
Предлагаю свой списочек особенно запомнившихся (мне) работ и направлений исследования в теоретической физике в 2006 году. Он, разумеется, очень субъективный, с перекосом в физику микромира, поэтому буду благодарен за комментарии и предложения. Список составлен не в порядке важности, а как попало.
Прошлогодний список можно посмотреть тут.
1. Программа Лэнглэндса и теоретическая физика
Две огромных статьи Виттена с соавторами:
Anton Kapustin, Edward Witten, hep-th/0604151, "Electric-Magnetic Duality And The Geometric Langlands Program"
Sergei Gukov, Edward Witten, hep-th/0612073, "Gauge Theory, Ramification, And The Geometric Langlands Program"
Программа Лэнглэнда, и в частности, ее геометрическая версия -- это совокупность идей и гипотез, связывающих теорию чисел и алгебраическую геометрию. Поэтому эта тема интересует в основном чистых математиков. Однако в последние годы выяснилось, что это направление исследования нашло неожиданные точки соприкосновения с теоретической физикой, с квантовой теорией поля и теорией суперструн. Более того, как показано в этих больших статьях, некоторые математические объекты и явления (например, дуальность), которые, как ожидается, будут играть важную роль в программе Лэнглэндса, уже рассматриваются физиками-теоретиками.
Наведение мостов между этими двумя научными дисциплинами должно оказаться чрезвычайно полезным дли них обоих.
На русском языке не нашлось ни одного хоть мало мальски доступного введения в этот предмет, поэтому могу порекомендовать только вводные лекции hep-th/0512172.
2. Применение N=4 SYM + AdS/CFT в квантовой хромодинамике
Один из сюрпризов прошедшего года -- это успешное применение теорфизики "высокого полета" (AdS/CFT сответствия) к описанию таких обыденных процессов, как столковение высокоэнергетических тяжелых ядер (такие процессы изучаются в эксперименте RHIC). Сюрпризом это является прежде всего для тех, которые думают, что для описания экспериментальных данных хватит "обычной", общепонятной математики, а всё мудреное -- это от лукавого.
Суть заключается в том, что некоторая разновидность калибровочной теории -- N=4 суперсиметричная теория Янга-Миллса (N=4 SYM) в пределе большого числа цветов -- находит применение при описании адронной материи при высоких температурах. Очень непохожая на обычную КХД при нулевой температуре, эта теория начинает ее напоминать при повышении температуры. Однако она существенно проще, чем сама КХД, и самое главное, к ней применимо AdS/CFT соответствие, позволяющее свести динамику кварков и глюонов в режиме сильной связи к изучению гравитации в неком многомерном пространстве.
Может покзаться удивительным, но именно эта высокая математика позволяет получать результаты там, где обычная КХД пока буксует.
Это вычисление ряда свойств столоквения тяжелых ядер: эффективная вязкость кварк-глюонной плазмы, потеря энергии при движении энергетических частиц сквозь нее, подавление струй, а про описание деконфайнмента в рамках этой теории мы писали в заметке Плавление атомных ядер происходит в два этапа?
Столкновение релятивистских ядер -- не единственное приложение N=4 SYM к "классической" физике элементарных частиц. Как раз из-за того, что эта теория проще обычной КХД, в рамках неё сейчас исследуются некоторые вещи, которые в КХД сосчитать очень трудно. Это, например, многопетлевые амплитуды рассеяния и поправки высших порядков в уравнения эволюции партонных плотностей, вывод линейного межкваркового потенциала, обеспечивающего конфайнмент.
3. Ландшафт теории струн
Как мы описывали в заметках Теория суперструн: в поисках выхода из кризиса и Бесконечно ли всемогущество теории суперструн?, теоретики-суперструнщики сейчас пытаются найти выход из тупика, в который они сами себя загнали. Дело в том, что, как выяснилось несколько лет назад, из одной и той же суперструнной теории при высокой энергии может получиться огромное множество самых разных низкоэнергетических миров (эта совокупность называется ландшафтом теории струн). Однако никакого динамического принципа, позволяющего объяснить, почему мы живем в этом конкретном низкоэнергетическом мире, пока не придумано.
Изучению этого ландшафта сейчас посвящено множество работ, причем в последние месяцы этот бум только разгорается: сейчас появляется с десяток статей в месяц (!). Интересно, к чему это всё приведет.
Сюда, кстати, примыкает одна интересная статья: hep-th/0602239, "Dynamical SUSY Breaking in Meta-Stable Vacua". Не исключено, что наш конкретный мир -- это не абсолютный энергетический минимум суперструнных теорий, а локальный, почти абсолютный минимум. Т.е. наш вакуум -- не настоящий вакуум, а псевдовакуум, и в принципе он может спонтанно перейти в настоящий. Вероятность такого перехода, однако, может быть столь мала, что это губительное событие так и не успело произойти за всё время, прошедшее от Большого взрыва. Открытие, сделанное в этой статье, состоит в том, что такое предположение легко решает одну из проблем теории суперструн -- естественность нарушения суперсимметрии в низкоэнергетическом мире.
4. Природа Большого взрыва и возникновение мира
Не суперструнами одними жива математическая физика. В рамках петлевой квантовой гравитации -- альтернативе суперструнам -- тоже есть прогресс. В 2006 году одному из авторов этой теории, Абэю Аштекару, с коллегами удалось "обсчитать Большой взрыв" (см. их статьи). По одной из этих статей мы опубликовали заметку Что было до Большого взрыва и откуда взялось время?
5. Электронные свойства графена
В физике конденсированных сред особенной активной в этом году мне показалась деятельность по изучению электронных свойств графена -- двумерной форме углерода, состоящей из одного или нескольких графитовых плоскостей. В 2005 году было открыто, что низкоэнергетические возбуждения в графене ведут себя подобно ультрарелятивистским частицам и приводят к совершенно новой разновидности квантового эффекта Холла. В 2006 году эти открытия продолжились: в двухслойном графене обнаружился еще один вид квантового эффекта Холла, вскрылись интересные свойства графена в присутствии беспорядочных дефектов, обсуждается магнетизм в графене, предлагается реализовать мысленный эксперимент, связанный с парадоксом Клейна.
6. Оптическая невидимость
Прогресс в создании метаматериалов с экзотической восприимчивостью к электромагнитному полю позволил всерьез заговорить о создании "шапки-невидимки" -- оболочки из метаматериала, обводящей лучи света вокруг помещенного внутрь тела и делающего его практически невидимым. См. Science (23 June 2006), Vol. 312. pp. 1780, Science (23 June 2006), Vol. 312. pp. 1777 и другие статьи, а также популярную заметку Возможность существования плаща-невидимки сведена к математической теореме.
[Комментарии на Элементах]
Прошлогодний список можно посмотреть тут.
1. Программа Лэнглэндса и теоретическая физика
Две огромных статьи Виттена с соавторами:
Anton Kapustin, Edward Witten, hep-th/0604151, "Electric-Magnetic Duality And The Geometric Langlands Program"
Sergei Gukov, Edward Witten, hep-th/0612073, "Gauge Theory, Ramification, And The Geometric Langlands Program"
Программа Лэнглэнда, и в частности, ее геометрическая версия -- это совокупность идей и гипотез, связывающих теорию чисел и алгебраическую геометрию. Поэтому эта тема интересует в основном чистых математиков. Однако в последние годы выяснилось, что это направление исследования нашло неожиданные точки соприкосновения с теоретической физикой, с квантовой теорией поля и теорией суперструн. Более того, как показано в этих больших статьях, некоторые математические объекты и явления (например, дуальность), которые, как ожидается, будут играть важную роль в программе Лэнглэндса, уже рассматриваются физиками-теоретиками.
Наведение мостов между этими двумя научными дисциплинами должно оказаться чрезвычайно полезным дли них обоих.
На русском языке не нашлось ни одного хоть мало мальски доступного введения в этот предмет, поэтому могу порекомендовать только вводные лекции hep-th/0512172.
2. Применение N=4 SYM + AdS/CFT в квантовой хромодинамике
Один из сюрпризов прошедшего года -- это успешное применение теорфизики "высокого полета" (AdS/CFT сответствия) к описанию таких обыденных процессов, как столковение высокоэнергетических тяжелых ядер (такие процессы изучаются в эксперименте RHIC). Сюрпризом это является прежде всего для тех, которые думают, что для описания экспериментальных данных хватит "обычной", общепонятной математики, а всё мудреное -- это от лукавого.
Суть заключается в том, что некоторая разновидность калибровочной теории -- N=4 суперсиметричная теория Янга-Миллса (N=4 SYM) в пределе большого числа цветов -- находит применение при описании адронной материи при высоких температурах. Очень непохожая на обычную КХД при нулевой температуре, эта теория начинает ее напоминать при повышении температуры. Однако она существенно проще, чем сама КХД, и самое главное, к ней применимо AdS/CFT соответствие, позволяющее свести динамику кварков и глюонов в режиме сильной связи к изучению гравитации в неком многомерном пространстве.
Может покзаться удивительным, но именно эта высокая математика позволяет получать результаты там, где обычная КХД пока буксует.
Это вычисление ряда свойств столоквения тяжелых ядер: эффективная вязкость кварк-глюонной плазмы, потеря энергии при движении энергетических частиц сквозь нее, подавление струй, а про описание деконфайнмента в рамках этой теории мы писали в заметке Плавление атомных ядер происходит в два этапа?
Столкновение релятивистских ядер -- не единственное приложение N=4 SYM к "классической" физике элементарных частиц. Как раз из-за того, что эта теория проще обычной КХД, в рамках неё сейчас исследуются некоторые вещи, которые в КХД сосчитать очень трудно. Это, например, многопетлевые амплитуды рассеяния и поправки высших порядков в уравнения эволюции партонных плотностей, вывод линейного межкваркового потенциала, обеспечивающего конфайнмент.
3. Ландшафт теории струн
Как мы описывали в заметках Теория суперструн: в поисках выхода из кризиса и Бесконечно ли всемогущество теории суперструн?, теоретики-суперструнщики сейчас пытаются найти выход из тупика, в который они сами себя загнали. Дело в том, что, как выяснилось несколько лет назад, из одной и той же суперструнной теории при высокой энергии может получиться огромное множество самых разных низкоэнергетических миров (эта совокупность называется ландшафтом теории струн). Однако никакого динамического принципа, позволяющего объяснить, почему мы живем в этом конкретном низкоэнергетическом мире, пока не придумано.
Изучению этого ландшафта сейчас посвящено множество работ, причем в последние месяцы этот бум только разгорается: сейчас появляется с десяток статей в месяц (!). Интересно, к чему это всё приведет.
Сюда, кстати, примыкает одна интересная статья: hep-th/0602239, "Dynamical SUSY Breaking in Meta-Stable Vacua". Не исключено, что наш конкретный мир -- это не абсолютный энергетический минимум суперструнных теорий, а локальный, почти абсолютный минимум. Т.е. наш вакуум -- не настоящий вакуум, а псевдовакуум, и в принципе он может спонтанно перейти в настоящий. Вероятность такого перехода, однако, может быть столь мала, что это губительное событие так и не успело произойти за всё время, прошедшее от Большого взрыва. Открытие, сделанное в этой статье, состоит в том, что такое предположение легко решает одну из проблем теории суперструн -- естественность нарушения суперсимметрии в низкоэнергетическом мире.
4. Природа Большого взрыва и возникновение мира
Не суперструнами одними жива математическая физика. В рамках петлевой квантовой гравитации -- альтернативе суперструнам -- тоже есть прогресс. В 2006 году одному из авторов этой теории, Абэю Аштекару, с коллегами удалось "обсчитать Большой взрыв" (см. их статьи). По одной из этих статей мы опубликовали заметку Что было до Большого взрыва и откуда взялось время?
5. Электронные свойства графена
В физике конденсированных сред особенной активной в этом году мне показалась деятельность по изучению электронных свойств графена -- двумерной форме углерода, состоящей из одного или нескольких графитовых плоскостей. В 2005 году было открыто, что низкоэнергетические возбуждения в графене ведут себя подобно ультрарелятивистским частицам и приводят к совершенно новой разновидности квантового эффекта Холла. В 2006 году эти открытия продолжились: в двухслойном графене обнаружился еще один вид квантового эффекта Холла, вскрылись интересные свойства графена в присутствии беспорядочных дефектов, обсуждается магнетизм в графене, предлагается реализовать мысленный эксперимент, связанный с парадоксом Клейна.
6. Оптическая невидимость
Прогресс в создании метаматериалов с экзотической восприимчивостью к электромагнитному полю позволил всерьез заговорить о создании "шапки-невидимки" -- оболочки из метаматериала, обводящей лучи света вокруг помещенного внутрь тела и делающего его практически невидимым. См. Science (23 June 2006), Vol. 312. pp. 1780, Science (23 June 2006), Vol. 312. pp. 1777 и другие статьи, а также популярную заметку Возможность существования плаща-невидимки сведена к математической теореме.
[Комментарии на Элементах]
Подписаться на:
Сообщения (Atom)