پردازش سیگنال‌های صوتی

از ویکی‌پدیا، دانشنامهٔ آزاد

پردازش سیگنال صوتی (به انگلیسی: ، Audio signal processing) زیرشاخه ای از پردازش سیگنال است که به دستکاری الکترونیکی سیگنال شنیداری مربوط می‌شود. سیگنال‌های صوتی نمایش‌های الکترونیکی موج صوتی-موج طولی که در هوا حرکت می‌کنند و متشکل از فشرده‌سازی و (امواج نادر | Rarefaction) هستند. انرژی موجود در سیگنال‌های صوتی معمولاً با دسی بل اندازه‌گیری می‌شود. از آنجایی که سیگنال‌های صوتی ممکن است در قالب سیگنال دیجیتال یا سیگنال آنالوگ نمایش داده شوند، پردازش ممکن است در هر دو حوزه انجام شود. پردازنده‌های آنالوگ مستقیماً روی سیگنال الکتریکی کار می‌کنند، در حالی که پردازنده‌های دیجیتال به صورت ریاضی بر روی نمایش دیجیتال آن کار می‌کنند.

تاریخچه[ویرایش]

انگیزه پردازش سیگنال صوتی در آغاز قرن بیستم با اختراعاتی مانند تلفن، گرامافون و رادیو شروع شد که امکان انتقال و ذخیره سیگنال‌های صوتی را فراهم می‌کرد. پردازش صدا برای پخش رادیویی ضروری بود، زیرا مشکلات زیادی در لینک فرستنده استودیو وجود داشت.[۱] تئوری پردازش سیگنال و کاربرد آن در صدا تا حد زیادی توسط آزمایشگاه‌های بل در اواسط قرن بیستم توسعه یافت. کارهای اولیه کلود شانون و هری نایکوئیست بر روی نظریه ارتباطات، قضیه نمونه‌برداری نایکوئیست–شنون و مدولاسیون کد پالس (PCM) پایه‌های این رشته را گذاشت. در سال ۱۹۵۷، مکس متیوز اولین کسی بود که صدا را از رایانه سینث‌سایزر کرد و موسیقی رایانه ای را به وجود آورد.

پیشرفت‌های عمده در کدگذاری صوتی دیجیتال و فشرده‌سازی داده‌های صوتی شامل مدولاسیون کد پالس تفاضلی (DPCM) توسط سی چاپین کاتلر در آزمایشگاه‌های بل در سال ۱۹۵۰ انجام شد. [۲]

منابع[ویرایش]

  1. آتی، آندریاس اسپانیاس، تد پینتر، ونکاترامان (۲۰۰۶). پردازش و کدگذاری سیگنال صوتی
  2. ثبت اختراع ایالات متحده ۲۶۰۵۳۶۱، سی چاپین کاتلر، "کوانتیزاسیون دیفرانسیل سیگنال های ارتباطی"، صادر شده در ۲۹-۰۷-۱۹۵۲