نسبیت عام

نسبیت عام :

یک سیاهچاله شبیه سازی شده با ۱۰ جرم خورشیدی که از فاصله ۶۰۰ کیلومتری دیده می‌شود و در زمینه هم کهکشان راه شیری قرار دارد

نسبیت عام به انگلیسی (General relativity) نظریه‌ای هندسی برای گرانش است که در سال ۱۹۱۶[۱] توسط اینشتین منتشر شد و توصیف کنونی گرانش در فیزیک نوین است. این نظریه تعمیمی بر نظریه نسبیت خاص و قانون جهانی گرانش نیوتون است که توصیف یکپارچه‌ای از گرانش به عنوان یک ویژگی هندسی فضا و زمان یا فضا–زمان ارائه می‌دهد.

این نظریه، گرانش را به عنوان یک عامل هندسی و نه یک نیرو بررسی می‌کند. در این نظریه فضا–زمان توسط هندسه ریمانی بررسی می‌شود. خمش فضازمان مستقیماً با انرژی و تکانه کل ماده و تابش موجود متناسب است. این رابطه توسط سیستمی از معادلات دیفرانسیل با مشتقات پاره‌ای به نام معادلات میدان اینشتین نمایش داده می‌شوند. پایهٔ نظری گرانش در کیهان‌شناسی، این نظریه و تعمیم‌های آن است.

نظریهٔ اینشتین جنبه‌های اخترفیزیکی مهمی دارد. مثلاً این نظریه وجود سیاهچاله‌ها را به عنوان وضعیت پایانی ستاره‌های بزرگ پیش‌بینی می‌کند. شواهد گسترده‌ای موجود است که تابش بسیار شدید منتشر شده از برخی انواع اجسام اخترفیزیکی ناشی از وجود سیاهچاله‌ها است. مثلاً ریزاختروش‌ها و هستهٔ کهکشانی فعال، به ترتیب نتیجه وجود سیاهچاله‌های ستاره‌وار و سیاه‌چاله‌های کلان‌جرم هستند. خم شدن نور بر اثر گرانش می‌تواند منجر به پدیدهٔ همگرایی گرانشی شود که در اثر آن چندین تصویر از یک جسم اخترفیزیکی دوردست در آسمان دیده می‌شود. نسبیت عام همچنین وجود امواج گرانشی را پیش‌بینی می‌کند که تاکنون تنها به‌طور غیرمستقیم مشاهده شده‌اند. پروژه‌هایی همچون لیگو و پروژهٔ لیسا ی ناسا با هدف مشاهدهٔ مستقیم این امواج گرانشی راه‌اندازی شده‌اند. افزون بر این، نسبیت عام پایهٔ مدل‌های رایج کنونی کیهان‌شناسی، که بر مبنای جهانِ در حال انبساط هستند، را تشکیل می‌دهد.

برخی از پیش‌بینی‌های نسبیت عام به میزان قابل‌توجهی با پیش‌بینی‌های فیزیک کلاسیک تفاوت دارند؛ به ویژه آن‌هایی که مرتبط با گذر زمان، هندسهٔ فضا، حرکت اجسام در سقوط آزاد و انتشار نور هستند. پدیده‌هایی چون اتساع زمان گرانشی، انتقال به سرخ گرانشی نور و تاخیر زمانی گرانشی که ناشی از کندتربودن گذر زمان در نزدیکی میدان‌های گرانشی قوی است، همگرایی گرانشی که به خمیده‌شدن نور در یک میدان گرانشی قوی اشاره دارد و حرکت تقدیمی مدار سیارات نمونه‌هایی از این تفاوت‌ها هستند. همچنین تعریف جرم در نسبیت عام به سادگی فیزیک کلاسیک و حتی نسبیت خاص نیست، در واقع در نسبیت عام نمی‌توان تعریفی کلی برای جرم یک سامانه ارائه داد و تعریف‌های گوناگونی همچون جرم اِی‌دی‌اِم، جرم کُمار و جرم بوندی پدید آمده‌اند.

محدودیت سرعت اجسام مادی به سرعت نور در نسبیت عام، پیامدهایی در مورد ساختار سببی فضازمان دربردارد، زیرا تأثیر رویدادها و در نتیجه علّیت نیز محدود به سرعت نور می‌باشند. این محدودیت در نسبیت عام به تعریف افق‌ها می‌انجامد که مرزبندی‌هایی در فضازمان هستند. از جملهٔ افق‌ها می‌توان به افق ذره و افق رویداد اشاره‌کرد که به ترتیب برخی نواحی از گذشته و آینده را غیر قابل دسترسی می‌نمایند.

یکی از ویژگی‌های ابهام‌آمیز نسبیت عام تکینگی‌ها هستند که در آن‌ها هندسهٔ فضازمان تعریف نشده‌است. برخی از پاسخ‌های معادلات میدان اینشتین، مانند پاسخ شوارتزشیلد و پاسخ کر تکینگی‌های آینده (تکینگی‌های سیاهچاله‌ها) و برخی دیگر مانند پاسخ فریدمان–لومتر–رابرتسون–واکر تکینگی‌های گذشته (تکینگی مهبانگ) را مشخص می‌کنند. ماهیت تکینگی‌ها همچنان در هالهٔ ابهام قرار دارد، هرچند که تلاش‌هایی در زمینه توصیف ساختار آنها صورت گرفته‌است.

پیش‌بینی‌های نسبیت عام در تمام مشاهدات و آزمایش‌هایی که تا به امروز انجام گرفته‌است، تأیید شده‌اند. نسبیت عام تنها نظریهٔ نسبیتی موجود برای گرانش نیست، بلکه ساده‌ترین نظریه‌ای است که با داده‌های تجربی همخوانی دارد. هرچند که پرسش‌هایی هستند که هنوز بی‌پاسخ مانده‌اند و شاید پایه‌ای‌ترین آن‌ها این باشد که چگونه می‌توان نسبیت عام را با قوانین فیزیک کوانتومی آشتی داد تا بتوان به نظریه‌ای کامل و خودسازگار برای گرانش کوانتومی دست یافت.

نورشناسی

نیوتن درباره شکست نور تحقیق می‌کرد. او دریافت که نور سفید اگر از یک منشور عبور کند به طیفی از رنگ‌ها تجزیه می‌شود. همچنین به‌وسیلهٔ قرار دادن منشور مشابه دیگری در مسیر نور تجزیه شده به صورت وارونه، می‌توان رنگ‌های طیف را بازترکیب کرد و نور سفید به دست‌آورد. او علت تشکیل طیف را چنین توجیه می‌کرد: نور جریانی از ذرات کوچک است که به خط مستقیم در فضا حرکت می‌کنند و هنگام عبور از یک ماده شفاف مانند منشور به ماده‌ای دیگر، این ذرات بسته به نوع لرزش خود با زاویه‌های گوناگون شکست می‌یابند. در نتیجه ذرات تشکیل دهنده نور سفید ازهم جدا شده به شکل طیف هفت رنگ ظاهر می‌شوند.
سال ۱۶۷۲

این ویژگی در تلسکوپ‌های شکستی پدیده‌ای را موجب می‌شود که به آن پراکندگی نور می‌گویند؛ لبه‌های عدسی‌های این تلسکوپ‌ها مانند منشور عمل کرده و نور سفید را پس از عبور از خود به صورت طیف در می‌آورند و در تصاویر تلسکوپ حاشیه‌های رنگی ایجاد می‌کنند. برای حل این مشکل نیوتن در سال ۱۶۶۸ تلسکوپ بازتابشی را که چندی قبل توسط جیمز گرگوری اسکاتلندی طراحی شده بود تکامل بخشید و آن را همراه با تحلیل دقیق قوانین بازتابش و تجزیهٔ نور به انجمن سلطنتی ارائه نمود. نظریهٔ نیوتن با مخالفت رابرت هوک فیزیکدان روبرو شد. هوک و کریستیان هویگنس هلندی در آن زمان صاحب تئوری موجی نور بودند که از نظر نیوتن مردود بود. چندی بعد نیوتن بر پایه نظریات خود کتابی در باب نورشناسی با عنوان «اپتیکس» نوشت. ولی از بیم مخالفت‌های هوک انتشار آن را تا سال ۱۷۰۴ به تأخیر انداخت. در این زمان وی خود رئیس انجمن سلطنتی شده و رابرت هوک نیز در گذشته بود.

چگونگی پیدایش اتم

یکم- کشف انرژی اتمی کشف انرزی هسته ای یکی از مهمترین و اثر گذارترین کشفیات بشر در طول تاریخ است. در سال 1927 میلادی ، « آلبرت انیشتن » با طرح فرمولی ثابت نمود که « اگر اتم شکافته شود ، انرژی عظیمی ایجاد می شود.» دوشیوه بنیادی برای آزادسازی یک اتم وجود دارد: در روش «شکافت هسته ای» هسته اتم را با یک «نوترون» به دو جزء کوچک تر تقسیم می شود. نظیر اقدامی که در مورد ایزوتوپ های اورانیوم (یعنی اورانیوم 235 و 233) انجام می شود. و در روش دوم که به «همجوشی هسته ای » مشهور است ؛ با استفاده از دو اتم کوچک تر که معمولا هیدروزه یا ایزوتوپ های هیدروژن (مانند دو تریوم و ترتیوم ) هستند ، یک اتم بزرگ تر مثل هلیوم یا ایزوتوپ های آن را تشکیل می شود. این فرایند در خورشید برای تولید انرزی به کار می رود. علی رغم اهمیت این کشف از همان آغاز سوء استفاده قدرت های جهان از آن نگرانی عمیقی را در سطح جهان پدید آورد ؛ با فاصله اندکی آمریکایی‌ها برای نخستین بار به طور کاملاً سری در صحرای “نوادا” انفجار هسته‌ای را آزمایش کردند. در جنگ جهانی دوم هم هواپیمای ده‌ تنی دبلیو به خلبانی سرگرد “کنراد” بمبی را که نام آن “Litell boy” بود در هیروشیمای ژاپن منفجر کردند که این بمب در 8 متری زمین منفجر شد و 120 هزار نفر را جزغاله کرد. 

دوم- پیشینه انرژی اتمی در ایران سال 1335، مجلس شورای ملی وقت، ایجاد «مرکز اتمی دانشگاه تهران» را تصویب کرد و در آذرماه 1344، راکتور پنج مگاواتی آموزشی و تحقیقاتی ایران، که از آمریکا خریداری شده بود آماده فعالیت شد.و در سال 1345، در مرکز تحقیقات هسته‌ای امیرآباد تهران به کار گرفته شد و تاکنون نیز فعالیتش ادامه دارد. این راکتور به طور منظم مورد بررسی آژانس بین‌المللی انرژی اتمی قرار دارد و از مواردی که 93 درصد آن اورانیوم غنی شده است استفاده می‌کند. سال 1352 سازمان انرژی اتمی تشکیل شد و سریعاً برای احداث مجتمع‌های قدرت هسته‌ای وارد مذاکره شد. حکومت شاه قراردادهای ده ساله قابل تمدید جهت تهیه سوخت هسته‌ای با کشورهای آلمان ، فرانسه و آمریکا امضاء کرد. قرار بود نیروگاه اتمی در بوشهر توسط وزارت تحقیقات و صنعت آلمان‌غربی به عنوان نخستین نیروگاه اتمی ایران‏در سال 1358 راه اندازی شود و پس از آن کار ساخت دیگر نیروگاه‏ها آغاز گردد. متعاقب این قرارداد، آمریکا بعد از مذاکراتی که در 22 مرداد سال 1356 صورت گرفت، قرار شد: نیروگاه‏هایی در ایران احداث کند و هشت راکتور اتمی به رژیم شاه بفروشد و در 15 مهر 1356، فرانسه نیز اعلام کرد که قرار است دو نیروگاه‌اتمی در ایران تأسیس کند و راکتورهایی را نیز به ایران بفروشد. با پیروزی انقلاب اسلامی، به دلیل مخالفت غربی‏ها با انقلاب اسلامی، این روند متوقف گردید و حتی در دوران جنگ، بخشی از امکانات احداث شده توسط فرانسوی‏ها، بمباران شد. پس از آن مذاکراتی با ژاپن صورت گرفت؛ اما ژاپنی‏ها هم تحت فشار غرب پاپس کشیدند. نهایتاً روس‏ها همکاری هسته‏ای با ایران را پذیرفتند. تلاش‌های صورت گرفته در سال‌های 1364 تا 1376 موجب گردید، ایران بتواند از طریق دلالان خارجی به نقشه‏هایی که در ساخت دستگاه‏های سانتریفوژ کاربرد دارند دسترسی پیدا کند. در این دوره، ایران توانست نقشه‏های مربوط به راکتور آب سنگین را هم به دست آورد. از سال 1376 تا سال 1380 با ساخت وسایل مورد نیاز در داخل و وارد کردن برخی از قطعات از خارج، جمهوری اسلامی ایران موفق به انجام آزمایش‏های مربوطه در محیط آزمایشگاهی شد. پس از موفقیت آزمایش‏ها در مقیاس آزمایشگاهی، از سال 80 به بعد این دانش به سایت‏های‏هسته‏ای از جمله سایت نطنز که از چندین سال قبل احداث آن شروع شده بود، منتقل گردید. در همین دوران، ایران به دانش غنی‌سازی اورانیوم از طریق لیزر نیز دست یافت و در محیط آزمایشگاهی، فعالیت‏هایی را انجام داد و کار احداث راکتور آب سنگین نیز در اراک آغاز گردید.با دسترسی به چنین توانمندی، یعنی دستیابی به فناوری هسته‏ای این دانش، عملیاتی نیز گردید و ایران توانست فرآیند غنی‏سازی و چرخه سوخت اتمی را اجرایی کند.
این پیروزی شگفت با اتکا به دانشمندان ایرانی در چندین نقطه از کشور دنبال شد:
1. استخراج اورانیوم از معادن در ساغند یزد؛
2. تبدیل سنگ اورانیوم به کیک زرد یا کنسانتره اورانیوم در اردکان یزد؛
3. تبدیل کیک زرد از طریق فرآوری اورانیوم به سه گاز در اصفهان: 
الف- گاز هگزا فلوراید اورانیوم معروف به UF6؛ 
ب- گاز تترافلوراید اورانیوم معروف به UF4؛ 
ج- اکسید اورانیوم معروف به UO2. با استفاده از این سه نوع گاز در دستگاه‏های سانتریفوژ در سایت نطنز که آخرین مرحله چرخه سوخت است، طی فرآیندی با جداسازی اتم‏های سنگین، غنی‌سازی صورت می‏گیرد.قابل ذکر است، درصد غنی‌سازی، متناسب با نوع کاربرد انجام می‏گیرد. بدین گونه که غنی‌سازی 3- 4% برای سوخت نیروگاه‏های اتمی و برای بمب اتم، غنی‌سازی بالای 90% باید انجام گیرد. 

سوم- غنی سازی چیست؟ غنی سازی در دانش هسته ایی یعنی تولید اورانیومی که دارای درصد بالایی از ایزوتوپ U۲۳۵ باشد. اورانیوم مورد استفاده در راکتورهای اتمی باید به حدی غنی شود که حاوی ۲ تا ۳ درصد اورانیوم ۲۳۵ باشد، در حالی که اورانیومی که در ساخت بمب اتمی بکار میرود حداقل باید حاوی ۹۰ درصد اورانیوم ۲۳۵ باشد.برای به دست آوردن اورانیوم غنی شده به دستگاههای احتیاج داریم که سانتریفوژ نام دارد. سانتریفوژ دستگاهی استوانه ایی شکل است که با سرعت بسیار زیاد حول محور خود می چرخد. هنگامی که گاز هگزا فلوئورید اورانیوم به داخل این سیلندر تزریق شود نیروی گریز از مرکز ناشی از چرخش آن باعث می شود که مولکولهای سبکتری که حاوی اورانیوم ۲۳۵ است در مرکز سیلندر متمرکز شوند و مولکولهای سنگینتری که حاوی اورانیوم ۲۳۸ هستند در پایین سیلندر انباشته شوند .اورانیوم ۲۳۵ غنی شده ای که از این طریق بدست می آید سپس به داخل سانتریفوژ دیگری دمیده میشود تا درجه خلوص آن باز هم بالاتر رود. این عمل بارها و بارها توسط سانتریفوژهای متعددی که بطور سری به یکدیگر متصل میشوند تکرار میشود تا جایی که اورانیوم ۲۳۵ با درصد خلوص موردنیاز بدست آید. آنچه که پس از جدا سازی اورانیوم ۲۳۵ باقی میماند به نام اورانیوم خالی یا فقیر شده شناخته می شود که اساسا از اورانیوم ۲۳۸ تشکیل یافته است. اورانیوم خالی فلز بسیار سنگینی است که اندکی خاصیت رادیو اکتیویته دارد و در ساخت گلوله های توپ ضد زره پوش و اجزای برخی جنگ افزار ها کاربرد دارد. این فرایند در ایران در کارخانه نطنز انجام می شود. 

چهارم – موفقیت های هسته ای ایران عملکرد کارخانه نطنز کارخانه نطنز از دو بخش شامل کارخانه آزمایشگاهی غنی سازی اورانیوم و کارخانه صنعتی غنی سازی اورانیوم تشکیل شده است. در کارخانه آزمایشگاهی مطابق گزارش‌های آژانس بین‌المللی انرژی اتمی، شش مجموعه 164 تایی از ماشین سانتریفیوژ در نظر گرفته شده است. برای ایجاد کارخانه صنعتی غنی سازی اورانیوم باید 54 هزار ماشین سانتریفیوژ وجود داشته باشد در مهرماه 1382 بر اساس توافقنامه سعدآباد، تهران متعهد شد که غنی سازی اورانیوم را به حالت تعلیق در بیاورد، و علیرغم این که بیش از 100ماشین سانتریفیوژ در نطنز وجود داشت ولی صرفا 10 ماشین سانتریفیوژ به هم متصل و روی آنها تست انجام و اورانیوم تا 2/1درصد غنی شده بود.اما ایران در اسفند سال 1384 اعلام کرد که فرآیند تحقیق و توسعه هسته‌ای را در نطنز آغاز خواهد کرد.این فرایند در نطنز دو مرحله دارد. مرحله اول نصب ماشین‌های سانتریفیوژ جدید در نطنز برای این که تعداد ماشین‌های سانتریفیوژ آماده به کار در نطنز به 164 برسد و مرحله دوم تست این ماشین‌ها یعنی انجام عملیات غنی سازی با استفاده از تزریق گاز هگزافلوراید اورانیوم است.ایران هم اکنون توانسته است یک مجموعه 164 تایی از ماشین‌های سانتریفیوژ را به هم متصل و با تزریق گاز روی آنها تست انجام دهد و اورانیوم را تا مقدار 8/4 درصد برای تهیه سوخت نیروگاه‌های آب سبک غنی کند. برای تبدیل نطنز به یک موقعیت صنعتی، صرفا به عملیاتی به نام «باز تولید» reproduction احتیاج داریم که مجموعه‌های 164 تایی سانتریفیوژ را باز تولید کرده و کنار هم بگذاریم تا تعداد آنها به بیش از 50 هزار تا برسد و یک کارخانه صنعتی داشته باشیم. دستیابی کشورمان به چرخه کامل سوخت هسته ای حکایت از آن دارد که ایران توانسته است از مرحله استخراج سنگ اورانیوم، تبدیل سنگ به کیک زرد، تبدیل کیک زرد به هگزافلوراید اورانیوم یا همان UF6، انجام عملیاتی غنی‌سازی روی UF6 و خالی کردن فلئور آن و تهیه اکسید اورانیوم غنی شده، تبدیل اکسید اورانیوم غنی شده به قرص‌هایی با عرض هشت دهم و طول یک سانتیمتر که این قرص در درون غلاف زیرکنیوم قرار می‌گیرد و میله‌های سوخت را تشکیل می‌دهد با موفقیت به پایان رساند. و با موفقیت چشم گیری و علی رغم تحریمها و محدودیت های بین المللی به جمع اعضای باشگاه هسته‌ای جهان پیوست و در غنی‌سازی در جایگاه دهم یا یازدهم قرار گرفت. علاوه بر بومی بودن تمامی مراحل غنی سازی دستگاه‌های سانتریفیوژ توسط متخصصان کشورمان ساخته می شوند؛ این سانتریفیوژهای حدودا یک متر و هشتاد سانتیمتر ارتفاع دارد و از 200 قطعه تشکیل شده که 94 قطعه آن بسیار حساس و دارای تکنولوژی بالایی است. 

پنجم- اهداف جمهوری اسلامی ایران از دستیابی به تکنولوژی هسته ای: این انرژی دارای کاربردهای فراوانی است که به دو بخش استفاده صلح جویانه و نظامی تقسیم می شود: 
الف. استفاده صلح جویانه جمهوری اسلامی ایران در طول سالیان اخیر همواره تاکید بر استفاده صلح آمیز از انرژی هسته ای داشته است و کاربردهای صلح‌آمیز، انگیزه اصلی طرح تجهیز هسته‌ای کشورمان می‌باشد که عبارتند از:
1- تحصیل توانمندی‌های مورد نیاز در عرصه‌های گوناگون بین‌المللی به شکل مدرن آن. 2- ورود به صنعت چرخه سوخت هسته‌ای (مجموعه حلقه‌هایی از دست‌یابی به سنگ و تبدیل آن به قرص اورانیوم را شامل می‌شود) که اکنون ایران رسماً به این گروه دعوت شده است. 3- استفاده از کاربردهای غیرنظامی انرژی هسته‌ای در عرصه‌های مختلف و مورد نیاز طبیعی کشور از قبیل : 1-3. کاربرد انرژی اتمی در تولید برق. 2-3. کاربرد انرژی هسته‌ای در بخش صنایع. 3-3. کاربرد در بخش صنایع غذایی و کشاورزی. 4-3. کاربرد تکنیک‌های هسته‌ای در مدیریت منابع آب. 5-3. کاربرد انرژی هسته‌ای در بخش پزشکی و بهداشتی. 6 -3 . کاربرد در بخش دامپزشکی و دامپروری. ب- کاربرد نظامی بدترین و خطرناک ترین نوع استفاده از این انرزی کاربردهای نظامی آن است که به دلیل قدرت تخریبی بسیار بالا خسارت های غیرقابل تصور مختلفی را برای بشریت و طبیعت به وجود می آورد؛ انفجاریک بمب اتمی سبب تولید یک موج گرمای بسیار شدید ، تولید موج انفجار فوق العاده قوی ، ایجاد انواع مختلف تابش های خطرنک و تولید ابری از ذرات و غبارهای رادیو اکتیو و قطعات بمب که به مرور مجددا فرو می ریزد و... می شود. نمونه بارز آن بکارگیری این سلاح مخرب توسط دولت آمریکا در شهرهای هیروشیما و ناکازاکی ژاپن در خلال جنگ جهانی دوم است که قربانیان فراوانی را به همراه داشت و هنوز هم بسیاری از آثار این عمل غیرانسانی در آن جامعه مشهور و ملموس است. جمهوری اسلامی ایران علیرغم مسابقه تسلیحاتی کشورهای بزرگ و برخی کشورهای منطقه در تولید و تکثیر این سلاح در جهت تهدید دیگر کشورها و عنصر بازدارندگی ؛ با توجه به خسارات و پیامدهای غیر انسانی آن از یک سو وهمچنین ممنوعیت استفاده از سلاح های کشتار جمعی در اسلام و فتوای صریح مقام معظم رهبری در حرمت آن ، از ابتدای شکل گیری خود تا کنون ضمن پیوستن به کنوانسیون ها و قراردادهاى منع تولید و تکثیر سلاححهای کشتارجمعی و هسته ای همواره بر کنترل و عاری سازی تمامی کشور ها از انواع سلاح های کشتار جمعی تاکید داشته و در موقعیت های متعدد آن را پیگیری نموده است.و حتى در سخت‏ترین شرایط، مانند بمباران شیمیایى شهرهاى کشور توسط رژیم عراق، تعهد خود را مبنى بر عدم استفاده از این سلاح‏ها، به اثبات رسانده است. 

ششم- جمهوری اسلامی ایران و آژانس بین المللی انرژی اتمی 1. ساختار آژانس بین‏المللی انرژی اتمی آژانس بین‌المللی انرژی در سال 1975 آغاز به کار نمود که از لحاظ ساختاری یک سازمان بین‌المللی مستقل است که تحت هدایت عالیه سازمان ملل‌متحد قرار دارد و در چارچوب نظام ملل‌متحد فعالیت می‏کند.هدف عمده آژانس، ترویج و توسعه کاربردهای انرژی اتمی در برقراری صلح، بهداشت و رفاه در سراسر جهان، از طریق وضع استانداردهای ایمنی هسته‏ای و زیست‌محیطی و کنترل آنها، ارائه خدمات فناوری هسته‏ای و مبادله اطلاعات علمی و فنی در زمینه انرژی هسته‏ای است. آژانس بین‌المللی انرژی اتمی، تنها سازمان تخصصی بین‌المللی‌ای است که مسقیماً به مجمع عمومی و در مواردی به شورای امنیت و شورای اقتصادی و اجتماعی ملل‌متحد گزارش می‏دهد. امروزه تعداد کشورهای عضو آژانس بالغ بر 140 کشور و مقر آن در وین اتریش است. 2. قواعد حقوقی ناظر بر عملکرد آژانس 1-2. اساسنامه آژانس؛ 2-2. معاهده منع گسترش سلاح‌های هسته‏ای؛ معاهده منع گسترش سلاح‌های هسته‏ای در 1968 به تصویب رسید و از 1970 به اجرا درآمد. از آنجا که این معاهده برای مدت 25 سال منعقد شده بود، لذا در 1995 برای مدت نامحدود تمدیدگردید. 186 کشور عضو این معاهده هستند. 3-2. موافقت‌نامه پادمان میان آژانس و کشورهای عضو آژانس؛ طبق ماده 12 اساسنامه آژانس، هر یک از کشورهای عضو باید به منظور انجام تدابیر پادمانی از سوی این آژانس، موافقت‌نامه پادمان را با آژانس امضا نمایند. این موافقت‌نامه که جنبه نمونه دارد، مشتمل بر 98 ماده است. در این زمینه، موافقت‌نامه‏های بازرسی، ادواری و محدود آژانس پیش‌بینی شده‏است. 4-2. پروتکل الحاقی به موافقت‌نامه 2+93، مصوب سپتامبر 1997 توسط شورای حکام آژانس است. این پروتکل نیز همچون موافقت‌نامه پادمان، یک موافقت‌نامه نمونه می‏باشد که مشتمل بر 18 ماده و دو ضمیمه مفصل است. این پروتکل میان هر یک از کشورهایی که آمادگی پذیرش مقررات پروتکل را دارند و آژانس منعقد می‏شود. مرجع تصویب پروتکل از سوی آژانس، شورای حکام و امضا و اجرای آن با دبیرکل آژانس است.تاکنون 80 کشور، از جمله کشورهای عضو اتحادیه اروپا و هر پنج قدرت هسته‏ای دارای حق وتو و نیز ژاپن و کره‌شمالی، پروتکل را امضا کرده‏اند. البته برخی از آنها، از جمله ایالات‌متحده‌آمریکا، آن را با اعمال حق شرط پذیرفته است. 3. پروتکل الحاقی 2+93 پس از کشف برنامه هسته‏ای مخفی عراق به دنبال جنگ خلیج‌فارس -بحران کویت- و فعالیت‏های هسته‏ای مشکوک کره‌شمالی، تقویت پادمان‏های هسته‏ای آژانس بین‏المللی انرژی اتمی مورد توجه قرار گرفت. این مسئله سبب شد که آمریکا و گروه غرب با استفاده از این بهانه به فکر تجدید نظر جدی در مکانیسم نظارتی و پادمان هسته‏ای آژانس و NPT بیفتند و در نتیجه ضرورت اصلاح و تقویت نظارت بر فعالیت‏های هسته‏ای دولت‏های فاقد سلاح هسته‏ای را مطرح سازند. استدلال کشورهای مذکور این بود که رژیم نظارتی NPT گرچه در نظارت بر فعالیت‏های اظهار شده عراق مؤثر بوده، ولی در کشف فعالیت‏های اظهار نشده این کشور موفق نبوده است. و لذا سیستم‏های نظارتی باید تقویت و اصلاح شود. بر این اساس شورای حکام آژانس در دسامبر 1993 بررسی برنامه‏ای را تحت عنوان 2+93 به منظور تهیه پیشنهادی در خصوص تقویت مؤثر سیستم نظارتی در مدت دو سال آغاز کرد که این برنامه به همین دلیل 2+93 نامیده شد.در ژوئن 1995 دبیرخانه آژانس، سند 2+93 را به شورای حکام آژانس تقدیم کرد. در آن سند اقدامات متعددی به منظور تقویت سیستم نظارتی NPT تشریح شده بود که شامل تأسیسات و فعالیت‏های اظهار شده و اظهار نشده می‏گردید. این سند شامل دو بخش بود: بخش نخست در برگیرنده اقداماتی بود که از دید دبیرخانه آژانس می‏توانست مطابق موافقتنامه‏های آژانس با کشورهای عضو غیرهسته‏ای تحت سند INFICIRC/153 فوراً اجرا شود. بخش دوم نیز در برگیرنده اقداماتی بود که دبیرخانه بر اساس تصویب مقام حقوقی صلاحیت‌دار پیشنهاد کرده بود. نهایتاً با توجه به ارائه این سند توسط دبیرخانه شورای حکام آژانس در سال 1996 با تأسیس کمیته‏ای، مسئولیت تدوین مقررات بخش دوم سند 2+93 را به آن واگذار کرد. این کمیته نیز پیش‌نویس 2+93 را پس از برگزاری چندین نشست تهیه و در 15 مه 1997 به تصویب شورای حکام آژانس رساند. از این رو سند 2+93 تحت عنوان«پروتکل تقویت کارآمدی سیستم نظارتی آژانس بر فعالیت‏های هسته‏ای» مورد تصویب قرار گرفت.پروتکل 2+93 برای کشورهای عضوی طراحی شده است که موافقتنامه بازرسی و نظارت را با آژانس امضا کرده‏اند. این پروتکل دارای یک مقدمه، 18 ماده و دو ضمیمه است. بر طبق ماده 1 پروتکل 2+93، در صورت بروز هرگونه تعارض بین مفاد موافقتنامه بازرسی153 و این پروتکل، مقررات پروتکل 2+93 اعمال خواهد شد.
4. وضعیت ایران در ارتباط با آژانس و پروتکل الحاقی ایران یکی از قدیمی ترین کشورهایی است که پیمان منع آزمایشات هسته ای (CTBT) را امضا کرد و کنوانسیون منع تولید و گسترش سلاح های هسته ای (NPT) را به رسمیت شناخته و به عضویت «آژانس بین المللی انرژی هسته ای» درآمد و نظارت مستقیم آژانس بین الملل انرژی هسته ای را بر فعالیت های خود پذیرفت. و آژانس بین الملل انرژی هسته ای طی چندین سال با بررسی دقیق فعالیت های ایران و تقویت کانون های نظارتی خود، بارها در گزارشات خود اعلام کرده است که ایران به جز استفاده صلح آمیز از تکنولوژی هسته ای برنامه دیگری ندارد و هیچ مدرکی دال بر انحراف برنامه هسته ای ایران وجود ندارد. اما با این حال موج جدید تبلیغات بر ضدّ فعّالیت‌های صلح‏آمیز هسته‏ای جمهوری اسلامی ایران و اقدامات آژانس بین‏المللی انرژی اتمی مطرح گردید که نقطه شروع آن اوت 2002 توسط نمایندگان سازمان مجاهدین‏خلق – منافقین- بود که مطالبی در مورد نیروگاه‏های نطنز و اراک بیان داشتند. پس از آن، شبکه خبری CNN عکس‏های ماهواره‏ای از تأسیسات نطنز و اراک را پخش و چنین وانمود کرد که گویی این دو سایت هسته‏ای را که به ادعای آنها برای ساخت سلاح اتمی ایجاد شده است، کشف‏کرده‏اند. آقای البرادعی در یک مصاحبه اظهار داشت که آژانس از وجود تأسیسات مزبور اطّلاع کامل داشته و پخش تصاویر CNN برای آژانس خبر جدیدی تلّقی نمی‏شود. وی افزود: ما هدف از این تأسیسات را درک می‏کنیم و اعتقاد داریم تحت کنترل دقیق و و برای مصارف صلح‌جویانه هستند ولی در هر صورت باید به آنجا برویم و اطمینان حاصل کنیم که آن تأسیسات تحت نظارت ‏نظام پادمان‏های آژانس قرار دارد. وی سپس به دعوت مقامات ایرانی برای بازدید از این تأسیسات اشاره کرد و گفت: موضوعی که بر آن پافشاری خواهیم کرد، لزوم پیوستن ایران به پروتکل‏الحاقی است.مدیر کلّ آژانس بین‌المللی انرژی اتمی در بهمن ماه 1381 از ایران و تأسسات نطنز بازدید کرد. در ادامه البرادعی مأمور شد در اجلاس بعدی شورای‌حکّام -42ژوئن/ 26 خرداد- گزارش جامعی در مورد فعّالیت‏های هسته‏ای جمهوری اسلامی ایران تهیّه و ارائه کند. در همین زمان، آمریکا همه تلاش خود را برای ایجاد نوعی اجماع بین‌المللی بر ضدّ فعّالیت‏های صلح‏آمیز هسته‏ای جمهوری اسلامی ایران در زمان برگزاری اجلاس به عمل آورد.سرانجام مدیرکل آژانس گزارش جامع خود را در مورد ایران در 18 ژوئن -28 خرداد- به شورای حکّام تسلیم کرد. که در آن هیچگونه تخلّف یا نقض تعهّد ایران را احراز نشده بود اما با کمال تعجب. مدیرکل، در این گزارش در مورد عدم اظهار 1800 کیلوگرم اورانیوم طبیعی در 1991 را که بر طبق قرارداد بازرسی ایران با آژانس، نیازی به اظهار آن نبوده است، بزرگ‌نمایی کرد و به نوعی برای پیوستن ایران به پروتکل 2+93 که یک پروتکل داوطلبانه است نه اجباری، فشار آورد. و شورای حکّام از ایران خواست که سریعاً و بی‌قید و شرط پروتکل الحاقی را امضا و اجرا کند. از آن پس آمریکا تمامی تلاش خود را به منظور تصویب قطعنامه‏ای بر ضد ایران در شورای حکّام وارسال پرونده ایران به شورای امنیت به کار برد. تا اینکه بالاخره با فشارهای سیاسی آمریکا و متحدینش بر آژانس و اعضای آن پرونده ایران بدون کوچکترین دلیل قانونی به شورای امنیت گزارش و در دستور کار اعضای آن قرار گرفت.هم اکنون نیز آمریکا تمامی تلاش خود را جهت دستیابی به اجماع اعضائ شورای امنیت در مورد اتخاذ تحریم های بین المللی بر علیه ایران به کار گرفته است . هرجند با توجه به عملکرد کاملا شفاف و قانونی ایران از یک سو و همچنین ایستادگی جدی ایران بر حقوق قانونی خویش به نظر نمی رسد این تلاش ها نتیجه مطلوبی برای آمریکا به دنبال داشته باشد. 

هفتم – راهبرد ایران در مقابله با موضوع هسته ای مقام معظم رهبری در این زمینه می فرمایند: «جمهوری اسلامی و ملت ایران بر اساس منطق اسلام به دنبال بمب اتمی نبوده و نیستند اما استفاده از دانش و فناوری هسته ای را حق مسلم خود می دانند و دانشمندان پر توان ایران همراه با دولت و ملت به عنوان وظیفه ای ملی این هدف را دنبال خواهند کرد» مسلما دستیابی به دانش و فناوری هسته ای و استفاده صلح آمیز از آن در زمینه های مختلف، حق مسلم مردم ایران می باشد. خصوصا با توجه به اینکه نظام جمهوری اسلامی از ابتدا تاکنون به شدت با تولید و تکثیر سلاح های کشتار جمعی مخالف بوده و مبانی اسلامی و انسانی آن به هیچ وجه چنین موضوعی را بر نمی تابد. در عمل نیز نظام اسلامی نهایت همکاری را با سازمان های نظارتی بین المللی داشته و دارد و صداقت و حسن نیت خویش را به کرات به اثبات رسانیده است. و هیچ گونه تخلفی از قوانین و مقررات بین المللی نداشته است از این رو دلیلی برای محروم نگاه داشتن ایران از این دانش و فن آوری مهم وجود ندارد. بر این اساس همانگونه که مقام معظم رهبری و سایر مسؤولین عالی رتبه نظام اعلام نموده اند اگر آژانس بین المللی بخواهد تحت تأثیر فشارهای آمریکا و اسرائیل مردم ایران را از این حق محروم نموده و از انجام تعهدات متقابل خویش در زمینه فراهم نمودن امکانات و زمینه های لازم جهت دستیابی هر چه سریعتر ایران به دانش و فن آوری مسالمت آمیز هسته ای، خودداری نماید، نظام اسلامی و مردم ایران به هیچ وجه چنین ظلمی را برنتابیده و در ادامه همکاری های خود با آژانس تجدید نظر خواهد کرد. بر اساس استراتژی فوق راه کارهای منطقی ایران جهت حل و فصل بحران هسته‏ای ایجاد شده توسط آمریکا، عبارتند از:
1. دستیابی به چرخه کامل سوخت هسته ای و اعلام ورود ایران به جمع 8 کشور صاحب فناوری غنی‌سازی اورانیوم اتفاقی تاثیرگذار، در روند پرونده هسته‌ای کشورمان به شمار می‌رود.
2. به کارگیری قابلیت جنبش عدم تعهد در شورای حکام و خارج از آن. در این الگو ایران توانست در اقدامی دیپلماتیک -همانند مذاکره با اروپا- با جنبش عدم تعهد در موضوع مباحث‏هسته‏ای همگرایی ایجاد کند.
3. استفاده از قدرت دو کشور چین و روسیه، از طریق انجام مذاکرات دیپلماتیک -همانند مورد اروپا- هرچند ظاهراً این دو کشور بر اساس پیش‌فرض اولیه ما اقدام و همکاری ننموده‏اند.
4. مسئولان جمهوری اسلامی با توجه به ناکارآمدی تصمیم شورای امنیت، مبنی بر تحریم از مواضع حق‌طلبانه و همراه با دوراندیشی جمهوری اسلامی، عقب‌نشینی نکرده و به تعاملات بین‌المللی برای گشودن راه‌های بیشتر مذاکره و گفت‌وگو ادامه دهند، ضمن آن‌که تأکید بر حفظ و ارتقای سطح وحدت ملی و پشتیبانی مردمی، اساسی‌ترین عامل قدرت و توان جمهوری اسلامی در کنترل این بحران خواهد بود که باید همه دست‌اندرکاران در صیانت و توسعه آن، بکوشند. 

پی نوشت ها
1. سید عبد المجید اشکوری ، ایران اتمی ، قم : همای غدیر، 1383 .صص19-20 . 
2 . محمدرضا کلا ن فر یبا یی ، هدف ایران از دست یابی به انرژی هسته‌ای چیست؟ ، حلقه پرسش و پاسخ.
3. هرمیداس باوند تاریخ هسته‌ای ایران، روزنامه شرق، 12/7/1383.
4. احمدرضا توحیدی٬ آژانس بین‌المللی انرژی اتمی، پروتکل الحاقی و وضعیت ایران٬ نشریه معارف ش31 ٬ آذر‏ماه 84 . و ر.ک : مهدی علیخانی ، شاه و اتم ، چگونگی آغاز فعالیت‌های هسته‌ای ایران ، پایگاه خبری تحلیلی شریف نیوز.
5. دستگاه‏هاى سانتریفوژ، نقش اصلى را در غنى‌سازى اورانیوم دارند و رآکتور آب سنگین، تولید‌کننده پلوتونیوم است
6. یعنى توانایى تبدیل اورانیوم طبیعى از طریق شکافت اتم به اورانیوم غنى‌شده.
7. عبدالمجید اشکورى، ایران اتمى، گزارش از پرونه، تکنولوژى هسته‏اى ایران، هماى غدیر، 1383، صص 50 - 55.
8. در نطنز چه می گذرد ؟ ، خبرگزاری آفتاب ، 23/1/1385 .
9. همان .
10. رضا آقازاده ، جزییات پیشرفت هسته‌ای اخیر ایران ، خبرگزاری مهر.
11. جهت آشنایی تفصیل با کاربردهای صلح‌آمیز انرژی هسته‌ای ر.ک: کاظم قریب آبادی، «فناوری هسته‌ای نیازها و ضرورت‌ها».
12. عبدالمجید اشکورى، ایران اتمى، گزارش از پرونه، تکنولوژى هسته‏اى ایران، هماى غدیر، 1383، ص32 .
13. علیرضا محمدی ؛ سلاح میکروبی ...آری...نه؟ ، مجله پرسمان ، شماره 40 - دی ماه 1384 .
14. احمدرضا توحیدی٬ آژانس بین‌المللی انرژی اتمی، پروتکل الحاقی و وضعیت ایران٬ نشریه معارف ش31 ٬ آذر‏ماه 84 .
15. کیهان، 1/4/83 (سخنرانی مقام معظم رهبری در دیدار با دست اندرکاران جهاد دانشگاهی).

Albert Einstein and

Albert Einstein
1879-1955
Newton's theory of gravitation was soon accepted without question, and it remained unquestioned until the beginning of this century. Then Albert Einstein shook the foundations of physics with the introduction of his Special Theory of Relativity in 1905, and his General Theory of Relativity in 1915 (Here is an example of a thought experiment in special relativity). The first showed that Newton's Three Laws of Motion were only approximately correct, breaking down when velocities approached that of light. The second showed that Newton's Law of Gravitation was also only approximately correct, breaking down in the presence of very strong gravitational fields.

Newton vs. Einstein: Albert's Turn to Kick Butt

We shall consider Relativity in more detail later. Here, we only summarize the differences between Newton's theory of gravitation and the theory of gravitation implied by the General Theory of Relativity. They make essentially identical predictions as long as the strength of the gravitational field is weak, which is our usual experience. However, there are three crucial predictions where the two theories diverge, and thus can be tested with careful experiments.
  1. The orientation of Mercury's orbit is found to precess in space over time, as indicated in the adjacent figure (the magnitude of the effect is greatly exaggerated in this figure). This is commonly called the "precession of the perihelion", because it causes the position of the perihelion to move. Only part of this can be accounted for by perturbations in Newton's theory. There is an extra 43 seconds of arc per century in this precession that is predicted by the Theory of General Relativity and observed to occur (a second of arc is 1/3600 of an angular degree). This effect is extremely small, but the measurements are very precise and can detect such small effects very well.

  2. Einstein's theory predicts that the direction of light propagation should be changed in a gravitational field, contrary to the Newtonian predictions. Precise observations indicate that Einstein is right, both about the effect and its magnitude. A striking consequence is gravitational lensing.

  3. The General Theory of Relativity predicts that light coming from a strong gravitational field should have its wavelength shifted to larger values (what astronomers call a "red shift"), again contary to Newton's theory. Once again, detailed observations indicate such a red shift, and that its magnitude is correctly given by Einstein's theory.

  4. The electromagnetic field can have waves in it that carry energy and that we call light. Likewise, the gravitational field can have waves that carry energy and are called gravitational waves. These may be thought of as ripples in the curvature of spacetime that travel at the speed of light.

    Just as accelerating charges can emit electromagnetic waves, accelerating masses can emit gravitational waves. However gravitational waves are difficult to detect because they are very weak and no conclusive evidence has yet been reported for their direct observation. They have been observed indirectly in the binary pulsar. Because the arrival time of pulses from the pulsar can be measured very precisely, it can be determined that the period of the binary system is gradually decreasing. It is found that the rate of period change (about 75 millionths of a second each year) is what would be expected for energy being lost to gravitational radiation, as predicted by the Theory of General Relativity.

The Modern Theory of Gravitation

And there is stands to the present day. Our best current theory of gravitation is the General Theory of Relativity. However, only if velocities are comparable to that of light, or gravitational fields are much larger than those encountered on the Earth, do the Relativity theory and Newton's theories differ in their predictions. Under most conditions Newton's three laws and his theory of gravitation are adequate. We shall return to this issue in our subsequent discussion of cosmology.

For a more comprehensive introduction to both Special and General Relativity, see the links at Relativity on the WWW, and The Light Cone (An Illuminating Introduction to Relativity), and Albert Einstein Online

Planck constant

Values of hUnitsRef.6.62606957(29)×10−34J·s[1]4.135667516(91)×10−15eV·s[1]2πEP·tPValues of ħUnitsRef.1.054571726(47)×10−34J·s[1]6.58211928(15)×10−16eV·s[1]1EP·tPdefValues of hcUnitsRef.1.98644568×10−25J·m1.23984193eV·μm2πEP·ℓPPlaque at the Humboldt University of Berlin: "Max Planck, discoverer of the elementary quantum of action h, taught in this building from 1889 to 1928."
The Planck constant (denoted h, also called Planck's constant) is a physical constant that is the quantum of action inquantum mechanics. The Planck constant was first described as the proportionality constant between the energy (E) of aphoton and the frequency (ν) of its associated electromagnetic wave. This relation between the energy and frequency is called the Planck relation:
Since the frequency , wavelength λ, andspeed of light c are related by λν = c, the Planck relation for a photon can also be expressed as
The above equation leads to another relationship involving the Planck constant. Given p for the linear momentum of a particle, the de Broglie wavelength λ of the particle is given by
In applications where frequency is expressed in terms of radians per second ("angular frequency") instead of cycles per second, it is often useful to absorb a factor of 2π into the Planck constant. The resulting constant is called the reduced Planck constant or Dirac constant. It is equal to the Planck constant divided by 2π, and is denoted ħ ("h-bar"):
The energy of a photon with angular frequency ω, where ω = 2πν, is given by
The reduced Planck constant is the quantum of angular momentum in quantum mechanics.
The Planck constant is named after Max Planck, the founder of quantum theory, who discovered it in 1900, and who coined the term "Quantum". Classical statistical mechanics requires the existence of h (but does not define its value).[2] Planck discovered that physical action could not take on any indiscriminate value. Instead, the action must be some multiple of a very small quantity (later to be named the "quantum of action" and now called Planck's constant). This inherent granularity is counterintuitive in the everyday world, where it is possible to "make things a little bit hotter" or "move things a little bit faster". This is because the quanta of action are very, very small in comparison to everyday macroscopic human experience. Hence, the granularity of nature appears smooth to us.
Thus, on the macroscopic scale, quantum mechanics and classical physics converge at the classical limit. Nevertheless, it is impossible, as Planck discovered, to explain some phenomena without accepting the fact that action is quantized. In many cases, such as for monochromatic light or for atoms, this quantum of action also implies that only certain energy levels are allowed, and values in-between are forbidden.[3] In 1923,Louis de Broglie generalized the Planck relation by postulating that the Planck constant represents the proportionality between the momentum and the quantum wavelength of not just the photon, but the quantum wavelength of any particle. This was confirmed by experiments soon afterwards.Contents  [hide] 1 Value2 Significance of the value3 Origins3.1 Black-body radiation3.2 Photoelectric effect3.3 Atomic structure3.4 Uncertainty principle4 Dependent physical constants4.1 Rest mass of the electron4.2 Avogadro constant4.3 Elementary charge4.4 Bohr magneton and nuclear magneton5 Determination5.1 Josephson constant5.2 Watt balance5.3 Magnetic resonance5.4 Faraday constant5.5 X-ray crystal density5.6 Particle accelerator6 Fixation7 See also8 Notes9 References10 External linksValue[edit source | editbeta]See also: New SI definitions
The Planck constant of action has the dimensionality of specific relative angular momentum (areal momentum) or angular momentum's intensity. In SI units, the Planck constant is expressed in joule seconds (J·s) or (N·m·s).
The value of the Planck constant is:[1]
The value of the reduced Planck constant is:
The two digits inside the parentheses denote the standard uncertainty in the last two digits of the value. The figures cited here are the 2010 CODATA recommended values for the constants and their uncertainties. The 2010 CODATA results were made available in June 2011[4] and represent the best-known, internationally-accepted values for these constants, based on all data available as of 2010. New CODATA figures are scheduled to be published approximately every four years.Significance of the value[edit source | editbeta]
The Planck constant is related to the quantization of light and matter. Therefore, the Planck constant can be seen as a subatomic-scale constant. In a unit system adapted to subatomic scales, the electronvolt is the appropriate unit of energy and the Petahertz the appropriate unit of frequency. Atomic unit systems are based (in part) on the Planck's constant.
The numerical value of the Planck constant depends entirely on the system of units used to measure it. When it is expressed in SI units, it is one of the smallest constants used in physics. This reflects the fact that on a scale adapted to humans, where energies are typically of the order of kilojoules and times are typically of the order of seconds or minutes, Planck's constant (the quantum of action) is very small.
Equivalently, the smallness of Planck's constant reflects the fact that everyday objects and systems are made of a large number of particles. For example, green light with awavelength of 555 nanometres (the approximate wavelength to which human eyes are most sensitive) has a frequency of 540 THz (540×1012 Hz). Each photon has an energy E of hν = 3.58×10−19 J. That is a very small amount of energy in terms of everyday experience, but everyday experience is not concerned with individual photons any more than with individual atoms or molecules. An amount of light compatible with everyday experience is the energy of one mole of photons; its energy can be calculated by multiplying the photon energy by the Avogadro constant, NA ≈6.022×1023 mol−1. The result is that green light of wavelength 555 nm has an energy of 216 kJ/mol, a typical energy of everyday life.Origins[edit source | editbeta]Black-body radiation[edit source | editbeta]Main article: Planck's lawIntensity of light emitted from a black body at any given frequency. Each color is a different temperature. Planck was the first to explain the shape of these curves.
In the last years of the nineteenth century, Planck was investigating the problem of black-body radiation first posed by Kirchhoff some forty years earlier. It is well known that hot objects glow, and that hotter objects glow brighter than cooler ones. The reason is that the electromagnetic field obeys laws of motion just like a mass on a spring, and can come to thermal equilibrium with hot atoms. When a hot object is in equilibrium with light, the amount of light it absorbs is equal to the amount of light it emits. If the object is black, meaning it absorbs all the light that hits it, then it emits the maximum amount of thermal light too.
The assumption that blackbody radiation is thermal leads to an accurate prediction: the total amount of emitted energy goes up with the temperature according to a definite rule, the Stefan–Boltzmann law (1879–84). But it was also known that the colour of the light given off by a hot object changes with the temperature, so that "white hot" is hotter than "red hot". Nevertheless, Wilhelm Wien discovered the mathematical relationship between the peaks of the curves at different temperatures, by using the principle of adiabatic invariance. At each different temperature, the curve is moved over by Wien's displacement law (1893). Wien also proposed anapproximation for the spectrum of the object, which was correct at high frequencies (short wavelength) but not at low frequencies (long wavelength).[5] It still was not clearwhy the spectrum of a hot object had the form that it has (see diagram).
Planck hypothesized that the equations of motion for light are a set of harmonic oscillators, one for each possible frequency. He examined how the entropy of the oscillators varied with the temperature of the body, trying to match Wien's law, and was able to derive an approximate mathematical function for black-body spectrum.[6]
However, Planck soon realized that his solution was not unique. There were several different solutions, each of which gave a different value for the entropy of the oscillators.[6] To save his theory, Planck had to resort to using the then controversial theory of statistical mechanics,[6] which he described as "an act of despair … I was ready to sacrifice any of my previous convictions about physics."[7] One of his new boundary conditions wasto interpret UN [the vibrational energy of N oscillators] not as a continuous, infinitely divisible quantity, but as a discrete quantity composed of an integral number of finite equal parts. Let us call each such part the energy element ε;—Planck, On the Law of Distribution of Energy in the Normal Spectrum[6]
With this new condition, Planck had imposed the quantization of the energy of the oscillators, "a purely formal assumption … actually I did not think much about it…" in his own words,[8] but one which would revolutionize physics. Applying this new approach to Wien's displacement law showed that the "energy element" must be proportional to the frequency of the oscillator, the first version of what is now termed "Planck's relation":
Planck was able to calculate the value of h from experimental data on black-body radiation: his result, 6.55 × 10−34 J·s, is within 1.2% of the currently accepted value.[6]He was also able to make the first determination of the Boltzmann constant kB from the same data and theory.[9]Note that the (black) Raleigh-Jeans curve never touches the Planck curve.
Prior to Planck's work, it had been assumed that the energy of a body could take on any value whatsoever – that it was acontinuous variable. The Rayleigh-Jeans law makes close predictions for a narrow range of values at one limit of temperatures, but the results diverge more and more strongly as temperatures increase. To makePlanck's law, which correctly predicts blackbody emissions, it was necessary to multiply the classical expression by a complex factor that involves h in both the numerator and the denominator. The influence of h in this complex factor would not disappear if it were set to zero or to any other value. Making an equation out of Planck's law that would reproduce the Rayleigh-Jeans law could not be done by changing the values of h, of the Boltzmann constant, or of any other constant or variable in the equation. In this case the picture given by classical physics is not duplicated by a range of results in the quantum picture.
The black-body problem was revisited in 1905, when Rayleigh and Jeans (on the one hand) and Einstein (on the other hand) independently proved that classical electromagnetism could never account for the observed spectrum. These proofs are commonly known as the "ultraviolet catastrophe", a name coined by Paul Ehrenfest in 1911. They contributed greatly (along with Einstein's work on the photoelectric effect) to convincing physicists that Planck's postulate of quantized energy levels was more than a mere mathematical formalism. The very first Solvay Conference in 1911 was devoted to "the theory of radiation and quanta".[10] Max Planck received the 1918Nobel Prize in Physics "in recognition of the services he rendered to the advancement of Physics by his discovery of energy quanta".Photoelectric effect[edit source | editbeta]Main article: Photoelectric effect
The photoelectric effect is the emission of electrons (called "photoelectrons") from a surface when light is shone on it. It was first observed by Alexandre Edmond Becquerel in 1839, although credit is usually reserved for Heinrich Hertz,[11] who published the first thorough investigation in 1887. Another particularly thorough investigation was published by Philipp Lenard in 1902.[12] Einstein's 1905 paper[13]discussing the effect in terms of light quanta would earn him the Nobel Prize in 1921,[11] when his predictions had been confirmed by the experimental work of Robert Andrews Millikan.[14] The Nobel committee awarded the prize for his work on the photo-electric effect, rather than relativity, both because of a bias against purely theoretical physics not grounded in discovery or experiment, and dissent amongst its members as to the actual proof that relativity was real.[15]
Prior to Einstein's paper, electromagnetic radiation such as visible light was considered to behave as a wave: hence the use of the terms "frequency" and "wavelength" to characterise different types of radiation. The energy transferred by a wave in a given time is called its intensity. The light from a theatre spotlight is moreintense than the light from a domestic lightbulb; that is to say that the spotlight gives out more energy per unit time (and hence consumes more electricity) than the ordinary bulb, even though the colour of the light might be very similar. Other waves, such as sound or the waves crashing against a seafront, also have their own intensity. However the energy account of the photoelectric effect didn't seem to agree with the wave description of light.
The "photoelectrons" emitted as a result of the photoelectric effect have a certainkinetic energy, which can be measured. This kinetic energy (for each photoelectron) isindependent of the intensity of the light,[12] but depends linearly on the frequency;[14]and if the frequency is too low (corresponding to a kinetic energy for the photoelectrons of zero or less), no photoelectrons are emitted at all, unless a plurality of photons, whose energetic sum is greater than the energy of the photoelectrons, acts virtually simultaneously (multiphoton effect) [16] Assuming the frequency is high enough to cause the photoelectric effect, a rise in intensity of the light source causes more photoelectrons to be emitted with the same kinetic energy, rather than the same number of photoelectrons to be emitted with higher kinetic energy.[12]
Einstein's explanation for these observations was that light itself is quantized; that the energy of light is not transferred continuously as in a classical wave, but only in small "packets" or quanta. The size of these "packets" of energy, which would later be named photons, was to be the same as Planck's "energy element", giving the modern version of Planck's relation:
Einstein's postulate was later proven experimentally: the constant of proportionality between the frequency of incident light (ν) and the kinetic energy of photoelectrons (E) was shown to be equal to the Planck constant (h).[14]Atomic structure[edit source | editbeta]Main article: Bohr modelA schematization of the Bohr model of the hydrogen atom. The transition shown from the n=3 level to the n=2 level gives rise to visible light of wavelength 656 nm (red), as the model predicts.
Niels Bohr introduced the first quantized model of the atom in 1913, in an attempt to overcome a major shortcoming ofRutherford's classical model.[17] In classical electrodynamics, a charge moving in a circle should radiate electromagnetic radiation. If that charge were to be an electron orbiting a nucleus, the radiation would cause it to lose energy and spiral down into the nucleus. Bohr solved this paradox with explicit reference to Planck's work: an electron in a Bohr atom could only have certain defined energies En
where C0 is the speed of light in vacuum,R∞ is an experimentally-determined constant (the Rydberg constant) and n is any integer (n = 1, 2, 3, …). Once the electron reached the lowest energy level (n = 1), it could not get any closer to the nucleus (lower energy). This approach also allowed Bohr to account for the Rydberg formula, an empirical description of the atomic spectrum of hydrogen, and to account for the value of the Rydberg constant R∞ in terms of other fundamental constants.
Bohr also introduced the quantity h/2π, now known as the reduced Planck constant, as the quantum of angular momentum. At first, Bohr thought that this was the angular momentum of each electron in an atom: this proved incorrect and, despite developments by Sommerfeld and others, an accurate description of the electron angular momentum proved beyond the Bohr model. The correct quantization rules for electrons – in which the energy reduces to the Bohr-model equation in the case of the hydrogen atom – were given by Heisenberg's matrix mechanics in 1925 and theSchrödinger wave equation in 1926: the reduced Planck constant remains the fundamental quantum of angular momentum. In modern terms, if J is the total angular momentum of a system with rotational invariance, and Jz the angular momentum measured along any given direction, these quantities can only take on the valuesUncertainty principle[edit source | editbeta]Main article: Uncertainty principle
The Planck constant also occurs in statements of Werner Heisenberg's uncertainty principle. Given a large number of particles prepared in the same state, the uncertaintyin their position, Δx, and the uncertainty in their momentum (in the same direction), Δp, obey
where the uncertainty is given as the standard deviation of the measured value from itsexpected value. There are a number of other such pairs of physically measurable values which obey a similar rule. One example is time vs. energy. The either-or nature of uncertainty forces measurement attempts to choose between trade offs, and given that they are quanta, the trade offs often take the form of either-or (as in Fourier analysis), rather than the compromises and gray areas of time series analysis.
In addition to some assumptions underlying the interpretation of certain values in the quantum mechanical formulation, one of the fundamental cornerstones to the entire theory lies in the commutator relationship between the position operator  and the momentum operator :
where δij is the Kronecker delta.Dependent physical constants[edit source | editbeta]
The following list is based on the 2006 CODATA evaluation;[18] for the constants listed below, more than 90% of the uncertainty is due to the uncertainty in the value of the Planck constant, as indicated by the square of the correlation coefficient (r2 > 0.9, r > 0.949). The Planck constant is (with one or two exceptions)[19] the fundamental physical constant which is known to the lowest level of precision, with a relative uncertainty ur of 5.0×10−8.Rest mass of the electron[edit source | editbeta]
The normal textbook derivation of the Rydberg constant R∞ defines it in terms of the electron mass me and a variety of other physical constants.
However, the Rydberg constant can be determined very accurately (ur = 6.6×10−12) from the atomic spectrum of hydrogen, whereas there is no direct method to measure the mass of a stationary electron in SI units. Hence the equation for the calculation ofme becomes
where c0 is the speed of light and α is the fine-structure constant. The speed of light has an exactly defined value in SI units, and the fine-structure constant can be determined more accurately (ur = 6.8×10−10) than the Planck constant: the uncertainty in the value of the electron rest mass is due entirely to the uncertainty in the value of the Planck constant (r2 > 0.999).Avogadro constant[edit source | editbeta]Main article: Avogadro constant
The Avogadro constant NA is determined as the ratio of the mass of one mole of electrons to the mass of a single electron: The mass of one mole of electrons is the "relative atomic mass" of an electron Ar(e), which can be measured in a Penning trap(ur = 4.2×10−10), multiplied by the molar mass constant Mu, which is defined as 0.001 kg/mol.
The dependence of the Avogadro constant on the Planck constant (r2 > 0.999) also holds for the physical constants which are related to amount of substance, such as the atomic mass constant. The uncertainty in the value of the Planck constant limits the knowledge of the masses of atoms and subatomic particles when expressed in SI units. It is possible to measure the masses more precisely in atomic mass units, but not to convert them more precisely into kilograms.Elementary charge[edit source | editbeta]Main article: Elementary charge
Sommerfeld originally defined the fine-structure constant α as:
where e is the elementary charge, ε0 is the electric constant (also called thepermittivity of free space), and μ0 is the magnetic constant (also called thepermeability of free space). The latter two constants have fixed values in the International System of Units. However, α can also be determined experimentally, notably by measuring the electron spin g-factor ge, then comparing the result with the value predicted by quantum electrodynamics.
At present, the most precise value for the elementary charge is obtained by rearranging the definition of α to obtain the following definition of e in terms of α and h:Bohr magneton and nuclear magneton[edit source | editbeta]Main articles: Bohr magneton and Nuclear magneton
The Bohr magneton and the nuclear magneton are units which are used to describe the magnetic properties of the electron and atomic nuclei respectively. The Bohr magneton is the magnetic moment which would be expected for an electron if it behaved as a spinning charge according to classical electrodynamics. It is defined in terms of the reduced Planck constant, the elementary charge and the electron mass, all of which depend on the Planck constant: the final dependence on h½ (r2 > 0.995) can be found by expanding the variables.
The nuclear magneton has a similar definition, but corrected for the fact that the proton is much more massive than the electron. The ratio of the electron relative atomic mass to the proton relative atomic mass can be determined experimentally to a high level of precision (ur = 4.3×10−10).Determination[edit source | editbeta]MethodValue of h(10−34 J·s)RelativeuncertaintyRef.Watt balance6.62606889(23)3.4×10−8[20][21][22]X-ray crystal density6.6260745(19)2.9×10−7[23]Josephson constant6.6260678(27)4.1×10−7[24][25]Magnetic resonance6.6260724(57)8.6×10−7[26][27]Faraday constant6.6260657(88)1.3×10−6[28]CODATA 2010recommended value6.62606957(29)4.4×10−8[1]The nine recent determinations of the Planck constant cover five separate methods. Where there is more than one recent determination for a given method, the value ofh given here is a weighted mean of the results, as calculated by CODATA.
In principle, the Planck constant could be determined by examining the spectrum of a black-body radiator or the kinetic energy of photoelectrons, and this is how its value was first calculated in the early twentieth century. In practice, these are no longer the most accurate methods. The CODATA value quoted here is based on three watt-balance measurements ofKJ2RK and one inter-laboratory determination of the molar volume of silicon,[18] but is mostly determined by a 2007 watt-balance measurement made at the U.S. National Institute of Standards and Technology (NIST).[22] Five other measurements by three different methods were initially considered, but not included in the final refinement as they were too imprecise to affect the result.
There are both practical and theoretical difficulties in determining h. The practical difficulties can be illustrated by the fact that the two most accurate methods, the watt balance and the X-ray crystal density method, do not appear to agree with one another. The most likely reason is that the measurement uncertainty for one (or both) of the methods has been estimated too low – it is (or they are) not as precise as is currently believed – but for the time being there is no indication which method is at fault.
The theoretical difficulties arise from the fact that all of the methods except the X-ray crystal density method rely on the theoretical basis of the Josephson effect and the quantum Hall effect. If these theories are slightly inaccurate – though there is no evidence at present to suggest they are – the methods would not give accurate values for the Planck constant. More importantly, the values of the Planck constant obtained in this way cannot be used as tests of the theories without falling into a circular argument. Fortunately, there are other statistical ways of testing the theories, and the theories have yet to be refuted.[18]Josephson constant[edit source | editbeta]
The Josephson constant KJ relates the potential difference U generated by theJosephson effect at a "Josephson junction" with the frequency ν of the microwave radiation. The theoretical treatment of Josephson effect suggests very strongly thatKJ = 2e/h.
The Josephson constant may be measured by comparing the potential difference generated by an array of Josephson junctions with a potential difference which is known in SI volts. The measurement of the potential difference in SI units is done by allowing an electrostatic force to cancel out a measurable gravitational force. Assuming the validity of the theoretical treatment of the Josephson effect, KJ is related to the Planck constant byWatt balance[edit source | editbeta]Main article: Watt balance
A watt balance is an instrument for comparing two powers, one of which is measured in SI watts and the other of which is measured in conventional electrical units. From the definition of the conventional watt W90, this gives a measure of the product KJ2RKin SI units, where RK is the von Klitzing constant which appears in the quantum Hall effect. If the theoretical treatments of the Josephson effect and the quantum Hall effect are valid, and in particular assuming that RK = h/e2, the measurement of KJ2RK is a direct determination of the Planck constant.Magnetic resonance[edit source | editbeta]Main article: Gyromagnetic ratio
The gyromagnetic ratio γ is the constant of proportionality between the frequency ν ofnuclear magnetic resonance (or electron paramagnetic resonance for electrons) and the applied magnetic field B: ν = γB. It is difficult to measure gyromagnetic ratios precisely because of the difficulties in precisely measuring B, but the value for protonsin water at 25 °C is known to better than one part per million. The protons are said to be "shielded" from the applied magnetic field by the electrons in the water molecule, the same effect that gives rise to chemical shift in NMR spectroscopy, and this is indicated by a prime on the symbol for the gyromagnetic ratio, γ′p. The gyromagnetic ratio is related to the shielded proton magnetic moment μ′p, the spin number I (I = 1⁄2for protons) and the reduced Planck constant.
The ratio of the shielded proton magnetic moment μ′p to the electron magnetic moment μe can be measured separately and to high precision, as the imprecisely-known value of the applied magnetic field cancels itself out in taking the ratio. The value of μe in Bohr magnetons is also known: it is half the electron g-factor ge. Hence
A further complication is that the measurement of γ′p involves the measurement of an electric current: this is invariably measured in conventional amperes rather than in SIamperes, so a conversion factor is required. The symbol Γ′p-90 is used for the measured gyromagnetic ratio using conventional electrical units. In addition, there are two methods of measuring the value, a "low-field" method and a "high-field" method, and the conversion factors are different in the two cases. Only the high-field value Γ′p-90(hi) is of interest in determining the Planck constant.
Substitution gives the expression for the Planck constant in terms of Γ′p-90(hi):Faraday constant[edit source | editbeta]Main article: Faraday constant
The Faraday constant F is the charge of one mole of electrons, equal to the Avogadro constant NA multiplied by the elementary charge e. It can be determined by carefulelectrolysis experiments, measuring the amount of silver dissolved from an electrode in a given time and for a given electric current. In practice, it is measured in conventional electrical units, and so given the symbol F90. Substituting the definitions of NA and e, and converting from conventional electrical units to SI units, gives the relation to the Planck constant.X-ray crystal density[edit source | editbeta]
The X-ray crystal density method is primarily a method for determining the Avogadro constant NA but as the Avogadro constant is related to the Planck constant it also determines a value for h. The principle behind the method is to determine NA as the ratio between the volume of the unit cell of a crystal, measured by X-ray crystallography, and the molar volume of the substance. Crystals of silicon are used, as they are available in high quality and purity by the technology developed for thesemiconductor industry. The unit cell volume is calculated from the spacing between two crystal planes referred to as d220. The molar volume Vm(Si) requires a knowledge of the density of the crystal and the atomic weight of the silicon used. The Planck constant is given byParticle accelerator[edit source | editbeta]
The experimental measurement of the Planck constant in the Large Hadron Colliderlaboratory was carried out in 2011. The study called PCC using a giant particle accelerator helped to better understand the relationships between the Planck constant and measuring distances in space. [needs citation]Fixation[edit source | editbeta]
As mentioned above, the numerical value of the Planck constant depends on the system of units used to describe it. Its value in SI units is known to 50 parts per billionbut its value in atomic units is known exactly, because of the way the scale of atomic units is defined. The same is true of conventional electrical units, where the Planck constant (denoted h90 to distinguish it from its value in SI units) is given by
with KJ–90 and RK–90 being exactly defined constants. Atomic units and conventional electrical units are very useful in their respective fields, because the uncertainty in the final result does not depend on an uncertain conversion factor, only on the uncertainty of the measurement itself.
There are a number of proposals to redefine certain of the SI base units in terms of fundamental physical constants.[29] This has already been done for the metre, which is defined in terms of a fixed value of the speed of light. The most urgent unit on the list for redefinition is the kilogram, whose value has been fixed for all science (since 1889) by the mass of a small cylinder of platinum–iridium alloy kept in a vault just outside Paris. While nobody knows if the mass of the International Prototype Kilogramhas changed since 1889 – the value 1 kg of its mass expressed in kilograms is by definition unchanged and therein lies one of the problems – it is known that over such a timescale the many similar Pt–Ir alloy cylinders kept in national laboratories around the world, have changed their relative mass by several tens of parts per million, however carefully they are stored, and the more so the more they have been taken out and used as mass standards. A change of several tens of micrograms in one kilogram is equivalent to the current uncertainty in the value of the Planck constant in SI units.
The legal process to change the definition of the kilogram is already underway,[29] but it was decided that no final decision would be made before the next meeting of theGeneral Conference on Weights and Measures in 2011.[30] The Planck constant is a leading contender to form the basis of the new definition, although not the only one.[30]Possible new definitions include "the mass of a body at rest whose equivalent energy equals the energy of photons whose frequencies sum to 135,639,274×1042 Hz",[31] or simply "the kilogram is defined so that the Planck constant equals6.62606896×10−34 J·s".
The BIPM provided Draft Resolution A in anticipation of the 24th General Conference on Weights and Measures meeting (2011-10-17 through 2011-10-21), detailing the considerations "On the possible future revision of the International System of Units, the SI".[32]
Watt balances already measure mass in terms of the Planck constant: at present, standard mass is taken as fixed and the measurement is performed to determine the Planck constant but, were the Planck constant to be fixed in SI units, the same experiment would be a measurement of the mass. The relative uncertainty in the measurement would remain the same.
Mass standards could also be constructed from silicon crystals or by other atom-counting methods. Such methods require a knowledge of the Avogadro constant, which fixes the proportionality between atomic mass and macroscopic mass but, with a defined value of the Planck constant, NA would be known to the same level of uncertainty (if not better) than current methods of comparing macroscopic mass.

ثابت پلانک

نشان افتخار که به سبب کشف ثابت پلانک، به ماکس پلانک تقدیم شده است. این نشان مقابل دانشگاه هومبُلت برلیننصب شده است، پلانک از سال ۱۸۸۹ تا۱۹۲۸ در این دانشگاه تدریس می‌کرد.

ثابت پلانک، یک ثابت طبیعی در فیزیک است که بیان کننده اندازه کوچکترین واحد انتقال انرژی و از مفاهیم اساسی در مکانیک کوانتومی است. این ثابت به اسم ماکس پلانک فیزیکدان آلمانی نامیده شده است که در سال ۱۹۰۰ آن را کشف کرد. این ثابت در فیزیک با h نشان داده می‌شود و مقدار آن برابر است با:

 h = 6{,}626068 \cdot 10^{-34}\,\rm{J\,s} = 4{,}13567 \cdot 10^{-15} \rm{eVs} ,

در برخی از رشته های فیزیک بیشتر به جای h از \hbar(که با نام ثابت کاهیده پلانک شناخته و "اچ بار " خوانده می‌شود) استفاده می‌شود:

 \hbar = \frac{h}{2\pi} = 1{,}054572 \cdot 10^{-34}\,\rm{J\,s} ,

ثابت پلانک اول بار به عنوان ضریب تناسب بین انرژی فوتون، و بسامد(\nu) موج الکترومغناطیس مربوط به آن شناخته شد. به این رابطه «رابطۀ پلانک» یا «رابطۀ انیشتین-پلانک» گفته میشود.

 E = h \nu = \hbar \omega \

پیدایش[ویرایش]

ماکس پلانک اولین بار برای حل مسأله تابش جسم سیاه ثابت پلانک را معرفی کرد. مفهوم جسم سیاه ۴۰ سال پیش از پلانک توسط کیرشهوف مطرح شده بود. وقتی جسم سیاهی در دمای خاصی قرار میگیرد، امواج الکترومغناطیس تابش میکند. انرژی تابش شده از جسم سیاه با دمای آن بر اساس قانون استفان-بولتزمن تغییر میکند. همچنین طیف امواج الکترومغناطیس تابش شده از جسم سیاه در طول موج خاصی که با دمای جسم سیاه رابطه دارد بیشینه میشود که به رابطۀ جابجایی وین شناخته میشود. نظریه الکترومغناطیس کلاسیک و مکانیک آماری از توضیح این قوانین تجربی عاجز بودند. طیف تابش جسم سیاه که از این نظریات کلاسیک به دست میامد رابطه ریلی-جینز بود که در طول موج های کوتاه (بسامد های زیاد) به شدت با این قوانین تجربی در تضاد بود. به این عدم توافق فاجعه ماوراء بنفش گفته میشد.

پلانک فرض کرد که معادله حرکت نور مجموعه ای از نوسانگرهای هماهنگ در همه بسامدهای ممکن است. او میخواست با این فرض معادله ای برای طیف تابش جسم سیاه بدست بیاورد. در این بین برای بدست آوردن جواب یکتا فرض کرد که انرژی هر N نوسانگر هماهنگ به جای پذیرش مقادیر پیوسته، تنها مقادیر گسسته ای را اختیار می کند. او نشان داد که که برای اینکه بتوان از این روش قانون جابجایی وین را بدست آورد، لازم است که این واحد های کوچک انرژی با بسامد نوسانگر های هماهنگ متناسب باشد. این رابطه امروزه به نام «رابطۀ پلانک» شناخته میشود.

 E = h \nu = \hbar \omega \

فرض گسسته بودن انرژی امواج الکترومغناطیس نه تنها مشکل طیف تابش جسم سیاه را حل کرد، که باعث انقلابی در فیزیک قرن بیستم به نام نظریه مکانیک کوانتمی شد.

کاربردها[ویرایش]

کاربرد این مقدار قبل از همه در معادله شرودینگر و معادله دیراک است. از این گذشته نیز در موارد زیر:

[\hat{p_i}, \hat{x_j}] = -i \hbar \delta_{ij}

 \Delta x \Delta p \ge \begin{matrix}\frac{1}{2}\end{matrix} \hbar

منابع

حرکت تقدیمی حضیض خورشیدی سیاره تیر

 

انتقال تیر در ۸ نوامبر ۲۰۰۶ with لکه‌های خورشیدی ۹۲۱،۹۲۲ و ۹۲۳
برای آگاهی از جزئیات بیشتر دربارهٔ این موضوع، مسئله دو جسم در نسبیت عام را ببینید.

در فیزیک نیوتنی یک سامانه دوجسمی متشکل از یک جسم منزوی که به دور یک جسم کروی می‌گردد، یک بیضی تشکیل می‌دهند که جسم کروی در یک کانون آن قرار دارد. نقطه‌ای که در آن دو جسم نزدیکترین فاصله را پیدا می‌کنند، حضیض نام دارد و ثابت است. برخی از تاثیرات در منظومه شمسی باعث حرکت تقدیمی (چرخشی) حضیض سیارات به دور خورشید می‌شوند. علت اصلی حضور سیارات دیگر است که مدار یکدیگر را مغتشش می‌سازند، تاثیر دیگر نیز که اثر آن از مورد اول بسیار کمتر است، پهن شدگی خورشد در قطبین است.

در مورد سیاره تیر، انحرافاتی از حرکت تقدیمی پیش بینی شده توسط این آثار نیوتنی مشاهده شده است. این نرخ غیرطبیعی حرکت تقدیمی حضیض خورشیدی مدار تیر نخستین بار در سال ۱۸۵۹ به عنوان یک مسئله در مکانیک اجرام آسمانی توسط اوربن لاوریه شناسایی شد. تحلیل دوباره مشاهدات زماندار انتقالهای تیر روی قرص خورشید از سال ۱۶۹۷ تا ۱۸۴۸ نشان می‌داد که نرخ واقعی حرکت تقدیمی با مقدار محاسبه شده توسط نظریه نیوتن، به اندازه "۳۸ (ثانیه قوسی) در هر قرن استوایی تفاوت دارد (بعدها در برآورد مجدد این مقدار به "۴۳ رسید).[۲] تعدادی راه حل موردی و سرانجام ناموفق برای این مسئله پیشنهاد شد، اما این راه حلها خود مسائل بیشتری را ایجاد می‌نمودند. در نسبیت عام، این حرکت تقدیمی اضافی، یا تغییر جهت گیری بیضی مداری در درون صفحه مداری اش، با دخالت گرانش از طریق خمش فضازمان توضیح داده می‌شود. انشتین نشان داد که نسبیت عام با میزان انتقال حضیض خورشیدی کاملا در توافق است.[۱] این عامل قدرتمندی در پذیرش نسبیت بود.

هرچند که اندازه گیریهای قدیمیتر مدارهای سیاره‌ای با استفاده از تلسکوپهای سنتی انجام می‌شد، امروزه با استفاده از رادار اندازه گیریهای دقیقتری انجام می‌گیرند. مقدار کل حرکت تقدیمی مشاهده شده تیر ۰٫۶۵±۵۷۴٫۱۰ ثانیه قوسی در هر قرن نسبت به چارچوب لخت آسمانی بین المللی (ICFR) می‌باشد.[۳] این میزان حرکت تقدیمی ناشی از عوامل زیر است:

[ویرایش]

دانشمندان این علم

نسبیت عام

یک سیاهچاله شبیه سازی شده با ۱۰ جرم خورشیدی که از فاصله ۶۰۰ کیلومتری دیده می‌شود و در زمینه هم کهکشان راه شیری قرار دارد

نسبیت عام: نظریه‌ای هندسی برای گرانش است که در سال ۱۹۱۶ توسط اینشتین منتشر شد و توصیف کنونی گرانش در فیزیک نوین است. این نظریه تعمیمی بر نظریه نسبیت خاص و قانون جهانی گرانش نیوتون است که توصیف یکپارچه‌ای از گرانش به عنوان یک ویژگی هندسی فضا و زمان یا فضا–زمان ارائه می‌دهد.

این نظریه گرانش را به عنوان یک عامل هندسی و نه یک نیرو بررسی می‌کند. در این نظریه فضا–زمان توسط هندسه ریمانی بررسی می‌شود. خمش فضازمان مستقیما با انرژی و تکانه کل ماده و تابش موجود متناسب است. این رابطه توسط سیستمی از معادلات دیفرانسیل با مشتقات پاره‌ای به نام معادلات میدان اینشتین نمایش داده می‌شوند. پایه نظری گرانش در کیهان‌شناسی، این نظریه و تعمیم‌های آن است.

برخی از پیش‌بینی‌های نسبیت عام به میزان قابل توجهی با پیش‌بینی‌های فیزیک کلاسیک تفاوت دارند؛ به ویژه آن دسته از پیش‌بینی‌هایی که مرتبط با گذر زمان، هندسه فضا، حرکت اجسام در سقوط آزاد و انتشار نور هستند. پدیده‌هایی چون اتساع زمان گرانشی، همگرایی گرانشی، انتقال به سرخ گرانشی نور و تاخیر زمانی گرانشی نمونه‌هایی از این تفاوت‌ها هستند. پیش‌بینی‌های نسبیت عام در تمام مشاهدات و آزمایش‌هایی که تا به امروز انجام شده‌اند، تایید شده‌اند. نسبیت عام تنها نظریه نسبیتی گرانشی موجود نیست، بلکه ساده‌ترین نظریه‌ای است که با داده‌های تجربی همخوانی دارد. هرچند که پرسش‌هایی هستند که هنوز بی‌پاسخ مانده‌اند و شاید پایه‌ای‌ترین آنها این باشد که چگونه می‌توان نسبیت عام را با قوانین فیزیک کوانتومی آشتی داد تا بتوان به نظریه‌ای کامل و خودسازگار برای گرانش کوانتومی دست یافت.

نظریه اینشتین جنبه‌های اخترفیزیکی مهمی دارد. مثلا این نظریه وجود سیاهچاله‌ها‌ را به عنوان وضعیت پایانی ستاره‌های بزرگ پیش‌بینی می‌کند. شواهد گسترده‌ای موجود است که تابش بسیار شدید منتشر شده از برخی انواع اجسام اخترفیزیکی ناشی از وجود سیاهچاله‌ها است. مثلا ریزاختروش‌ها‌ و هسته کهکشانی فعال، به ترتیب نتیجه وجود سیاهچاله‌های ستاره‌وار و سیاه‌چاله‌های کلان‌جرم هستند. خم شدن نور بر اثر گرانش می‌تواند منجر به پدیده همگرایی گرانشی شود که در اثر آن چندین تصویر از یک جسم اخترفیزیکی دوردست در آسمان دیده می‌شود. نسبیت عام همچنین وجود امواج گرانشی را پیش‌بینی می‌کند که از آن زمان مورد مشاهده غیرمستقیم قرارگرفتند. پروژه‌هایی همچون لیگو و پروژه لیسا ی ناسا با هدف مشاهده مستقیم این امواج گرانشی راه‌اندازی شده‌اند. علاوه بر این نسبیت عام پایه مدل‌های رایج کنونی کیهان شناسی فیزیکی، که بر مبنای جهان در حال انبساط هستند، را تشکیل می‌دهد.

نظریه میدان اسکالر

در علم فیزیک نظری مدل‌های مختلفی برای توضیح جهان شتاب‌دار تا کنون مطرح شده‌اند که همگی به مقوله انرژی تاریک مربوط می‌شوند. توضیح ریاضیاتی این پدیده نظریه میدان اسکالر \phi نامیده می‌شود که مجموعا به چهار فرم اثر، فانتوم، تاچیون و کوانتومی تقسیم می‌شود. هر میدانی که تحت تبدیلات لورنتس ناوردا بماند اصطلاحا اسکالر خواهد بود. اصل کنش برای میدان اسکالر نسبیتی در جهان D بعدی و بر حسب مشتقات هموردا چنین تعریف می‌شود

\mathcal{S}=\int \mathrm{d}^{D-1}x \, \mathrm{d}t \mathcal{L} = \int
\mathrm{d}^{D-1}x \mathrm{d}t \left[\frac{1}{2}\eta^{\mu\nu}\partial_\mu\phi\partial_\nu\phi - V(\phi) \right]

که \mathcal{L} چگالی لاگرانژی و V(\phi) پتانسیل میدان نامیده می‌شود. معادله حرکت اویلر لاگرانژ متناظر با آن نیز چنین است

\eta^{\mu\nu}\partial_\mu\partial_\nu\phi+V'(\phi)=\partial^2_t\phi-\nabla^2\phi
+V'(\phi)=0

بنابراین در حالتی که جرم m عامل بوجود آمدن انحنا یا همان تولید میدان اسکالر باشد داریم:

\mathcal{S}=\int \mathrm{d}^{D-1}x \mathrm{d}t \mathcal{L} = \int \mathrm{d}^{D-1}x \mathrm{d}t
\left[ \frac{1}{2}\eta^{\mu\nu}\partial_\mu\phi\partial_\nu\phi -\frac{1}{2} m^2\phi^2 \right]
=\int \mathrm{d}^{D-1}x \mathrm{d}t \left[\frac{1}{2}(\partial_t\phi)^2- \frac{1}{2}\delta^{ij}\partial_i\phi \partial_j\phi -\frac{1}{2} m^2\phi^2 \right],

در این حالت مسلما معادله حرکت اویلر لاگرانژ مربوط به آن نیز چنین مد نظر گرفته می‌شود

\eta^{\mu\nu}\partial_\mu\partial_\nu\phi+m^2\phi=\partial^2_t\phi-\nabla^2\phi+m^2\phi=0

و اما اگر میدان کوانتومی را اساس میدان اسکالر در نظر بگیریم کنش مربوطه می‌شود

S=\int \mathrm{d}^{D-1}x \, \mathrm{d}t \left[\frac{1}{2}(\partial_t\phi)^2- \frac{1}{2}\delta^{ij}\partial_i\phi\partial_j\phi -
\frac{1}{2}m^2\phi^2-\sum_{n=3}^\infty \frac{1}{n!} g_n\phi^n \right]

که طبیعتا در نظریه برهمکنش چهار بعدی \phi^4 چگالی لاگرانژی بر اثر پتانسیل میدان V(\phi)=\frac{1}{2}m^2\phi^2 +\frac{g}{4!}\phi^4 منجر به معادله زیر می‌شود

\mathcal{L}=\frac{1}{2}(\partial_t\phi)^2 -\frac{1}{2}\delta^{ij}\partial_i\phi\partial_j\phi - \frac{1}{2}m^2\phi^2-\frac{g}{4!}\phi^4.
 
 
 
 
 [ویرایش]