الگوریتم درجا
الگوریتم درجا (به لاتین: in situ) در علم کامپیوتر الگوریتمی است که ورودی را با استفاده از یک داده ساختار با یک حافظهٔ اضافی کوچک و ثابت تبدیل میکند. ورودی معمولاً به وسیلهٔ خروجی که هنگام اجرای الگوریتم به وجود میآید، دوباره نوشته میشود. الگوریتمی که درجا نباشد گاهی نه در محل (not-in-place) یا خارج از محل (out-of-place) نامیده میشود.
یک الگوریتم تا زمانی به طور رسمی درجا نامیده میشود که ورودی به وسیله خروجی بازنویسی شود. در واقع این شرط نه کافی است (در مواردی که دادهها به طور مرتب نمایش داده شده) و نه لازم است; ممکن است فضای داده خروجی ثابت باشد یا حتی ممکن است قابل شمارش نباشد؛ برای مثال در حالتی که خروجی در (گردش) جریان باشد. ازسوی دیگر، گاهی اوقات ممکن است عملی تر باشد که فضای داده خروجی را حساب کنیم، تا تعیین کنیم که آیا این الگوریتم درجا است یا نه. مانند مثال اول معکوس زیر؛ این باعث میشود که تعریف کردن الگوریتمهای درجا به شدت مشکل شود. در کاربردهای نظری مانند کاهش فضای ورود، همیشه از فضای دادههای خروجی چشم پوشی میشود. (در این مورد ضروری است که داده خروجی فقط نوشتنی باشد.)
مثال[ویرایش]
فرض کنید میخواهیم آرایه ای n رقمی را معکوس کنیم یکی از راههای ساده این است که:
function reverse(a[0..n]) allocate b[0..n] for i from 0 to n b[n - i] = a[i] return b
متأسفانه، در اینجا به فضای بیشتر برای ایجاد آرایه b نیاز است و اغلب عمل تخصیص دادن یک عمل کند است. اگر ما دیگر بهa احتیاج نداشته باشیم، میتوانیم به جای بازنویسی با معکوس خودش از الگوریتم درجای زیر استفاده کنیم:
function reverse-in-place(a[0..n]) for i from 0 to floor(n/2) swap(a[i], a[n-i])
به عنوان مثالی دیگر، تعدادی الگوریتم مرتب سازی هستند که میتوانند آرایهها را به آرایههای درجا مرتب شده بازآرایی کنند، از جمله: مرتب سازی حبابی، مرتب سازی شانهای، مرتب سازی انتخابی، مرتب سازی درجی، مرتب سازی هرمی و مرتب سازی شِل.
مرتب سازی سریع معمولاً به عنوان الگوریتم درجا تعریف میشود. ولی در واقع یکی نیست. اکثر پیاده سازیها نیازمند فضا برای پشتیبانی از تقسیم و حل بازگشتی هستند.
اکثر الگوریتم انتخابها نیز درجا هستند، اگرچه بعضی از آنها به طور قابل ملاحظهای دادهٔ ورودی آرایه را در فرایند یافتن نتیجه نهایی با اندازهٔ ثابت، بازآرایی میکنند.
برخی از الگوریتمهای دستکاری متن مانند اصلاح شده و معکوس ممکن است درجا انجام شوند.
پیچیدگی محاسباتی[ویرایش]
در نظریه پیچیدگی محاسباتی، الگوریتمهای درجا شامل همهٔ الگوریتمهای با پیچیدگی فضایی ، کلاس پیچیدگی فضا هستند. این کلاس بسیار محدود است؛ که با یک زبان منظم برابری میکند.[۱] در واقع حتی شامل هیچ یک از مثالهای ذکر شده در بالا نمیشود.
به همین دلیل، ما نیز الگوریتمهای L را مطرح میکنیم، کلاس این مسائل به فضای اضافی نیاز دارند تا درجا باشند. اگرچه به نظر میرسد که با تعریف قبلی ما در تناقض است، ما باید فرض کنیم که در جهان انتزاعی ورودی ما میتواند به طور قراردادی بزرگ باشد. بر روی یک کامپیوتر واقعی، یک اشاره گر فقط به یک مقدار فضای ثابت و کوچک نیاز دارد. چون مقدار حافظهٔ فیزیکی محدود است، اما به طور کلی بیت نیاز است تا اندیس را در لیستی با سایز n مشخص کند.
آیا به این معنی است که مرتب سازی سریع یک الگوریتم درجا است؟ هرگز. از لحاظ فنی، این به فضا نیاز دارد، از آنجایی که هر یک از چارچوب پشته شامل تعداد ثابتی اشاره گر هستند. (سایز هر کدام از آنها است.)
شناسایی الگوریتمهای درجا با L دارای مفاهیم جالبی است؛ به طور مثال، به این معنی است که الگوریتمهای درجای (نسبتاً پیچیده) وجود دارند که تعیین میکنند آیا یک مسیر بین دو گره در یک گراف بدون جهت وجود دارد یا نه.[۲] مشکل این است که به فضای اضافی برای استفاده الگوریتمهای معمولی مورد نیاز است. مانند جستجوی عمق اول (یک بیت برای هر گره).
نقش تصادفی[ویرایش]
در بسیاری از موارد، فضای مورد نیاز برای یک الگوریتم میتواند با استفاده از الگوریتم تصادفی به شدت کاهش یابد. به عنوان مثال، میخواهیم بدانیم دو راس درون یک گراف n راسی در یک مولفهٔ همبند گراف هستند. الگوریتم درجای ساده شناخته شدهای به صورت قطعی برای تعیین این موضوع وجود ندارد، ولی اگر ما به سادگی از یک راس شروع کنیم و به طور تصادفی با گام بر روی رئوس پیش برویم، شانس اینکه به راسی که آن را از قبل انتخاب کردهایم برسیم و این دو در یک مولفه همبندی باشند، بالا میرود. به طور مشابه، الگوریتمهای درجای تصادفی سادهای برای آزمون اولیه وجود دارند. مانند آزمون اولیه میلرـ رابین. و همچنین الگوریتمهای درجای تصادفی ساده وجود دارند، مثل الگوریتم پولارد . برای بررسی بیشتر این پدیده RL و BPL را ببینید.
برنامه نویسی تابعی[ویرایش]
زبانهای برنامه نویسی تابعی گاهی دلسردکنندهاست. آنها اغلب الگوریتمهای درجایی که دادهها را بازنویسی میکنند، به طور صریح پشتیبانی نمیکنند، از این رو این یک نوع اثر زیان آور است؛ در عوض، آنها فقط اجازه میدهند دادههای جدید ساخته شود. با این حال، کامپایلرهای زبانهای تابعی خوب اغلب زمانی که یک شیء ساخته شده بسیار شبیه به شیء موجود باشد، تشخیص میدهند و سپس شیء قدیمی توسط آنها دور انداخته میشود و این به یک جهش ساده "under-the-hood" بهینه سازی میشود.
توجه داشته باشید که ممکن است در اصل برای به دقت ساختن الگوریتمهای درجایی که دادهها را تغییر نمیدهند (مگر این که دادهها دیگر مورد استفاده قرار نگرفته باشند) ولی این در عمل به ندرت انجام میشود. ساختمان دادههای تابعی را ببینید.
منابع[ویرایش]
- ↑ Maciej Liśkiewicz and Rüdiger Reischuk. The Complexity World below Logarithmic Space. Structure in Complexity Theory Conference, pp. 64-78. 1994. Online: p. 3, Theorem 2.
- ↑ Omer Reingold. Undirected ST-connectivity in Log-Space. Electronic Colloquium on Computational Complexity. No. 94.
http://en.wikipedia.org/wiki/In-place_algorithm
پیوند به بیرون[ویرایش]
![]() |
در ویکیانبار پروندههایی دربارهٔ الگوریتم درجا موجود است. |