اخباراخبار ویژه

اختصاصی بسپار/ جنگ دوازده روزه، یک بحران ژئوپلیتیک صرف یا رودررویی علم، تکنولوژی و قدرت نظامی؟

بسپار/ایران پلیمر «کنش انسان، امروز بیش از هر زمان دیگر، پیامدهایی دارد که از افق تجربه‌ی او فراتر می‌روند؛ و همین ما را ملزم می‌کند به مسوولیتی که نه‌تنها در برابر اکنون، که در برابر آینده‌ای ناشناخته است.»
هانس یوناس، اصل مسوولیت (1979)

یکی از واژگانی که برای من خرداد ۱۴۰۴ را بازنمایی می‌کند، رودررویی است: رودررویی با تجربه‌هایی غریب و گاه هولناک؛ لحظاتی متلاطم، آکنده از ابهام و بی‌ثباتی. این نخستین‌بار بود که معنای خداحافظی از خانه، دلتنگی، و پرسش بی‌پاسخ «چه زمانی بازخواهم گشت؟» را نه در زبان، که در جانم احساس کردم.
اما این تجربه‌ی فردی، در دل رخدادی بزرگ‌تر و تکان‌دهنده قرار گرفت: جنگی با مختصاتی تازه که در آن نه تنها پهپادها، بلکه اختلال در سامانه‌های دفاعی، جنگ سایبری، و سایه‌ی مساله‌ی بغرنج هسته‌ای -که حاکمان ایران همچنان بر آن اصرار می‌ورزند -نقش دارند.
این رخداد، همانند بسیاری از درگیری‌های معاصر، تنها یک بحران ژئوپولیتیک نبود، بلکه نشان‌دهنده‌ی پیوند تنگاتنگ علم، تکنولوژی و قدرت نظامی است. از پروژه‌ی منهتن و بمباران اتمی هیروشیما و ناگازاکی گرفته تا طراحی سامانه‌های هوش مصنوعی تهاجمی، دانش علمی بارها در مسیر تولید ابزارهایی برای تخریب گسترده‌تر و کنترل موثرتر قرار گرفته است.

گویی علم و فناوری، برخلاف تصور رایج از بی‌طرفی‌شان، هرگز در خلا شکل نمی‌گیرند. آن‌ها در دل بافتارهای سیاسی، اقتصادی و ایدئولوژیک معنا می‌یابند. سرمایه‌گذاری‌های سنگین نهادهای نظامی در حوزه‌هایی چون فیزیک، زیست‌فناوری، علوم داده و یادگیری ماشین، نشان می‌دهد که بخشی از پیشرفت علمی، نه در حاشیه بلکه در متن منطق تسلیحاتی دنیای معاصر رقم می‌خورد. هوش مصنوعی که زمانی نویدبخش شناخت بهتر ذهن و آگاهی در افق‌های فلسفی بود، اکنون بخشی از سامانه‌های شناسایی، هدف‌گیری و تصمیم‌گیری در میدان‌های جنگی است.
در این نوشتار، با رویکردی فلسفی و تاریخی، تلاش می‌شود تا نسبت پیچیده و چندلایه‌ی میان علم، فناوری و جنگ بررسی شود. سپس با ورود به حوزه‌ی فلسفه‌ی اخلاق علم و تکنولوژی، به واکاوی این پرسش‌های بنیادین می‌پردازیم:
• آیا دانشمندان در برابر کاربردهای نظامی دانش خود مسئول‌اند؟
• مرز میان پژوهش علمی و تسلیح آن کجاست؟
• اخلاق و مسوولیت اخلاقی در حوزه دانش و فناوری چه جایگاهی دارند؟
در چنین زمانه‌ای، رودررو شدن با پرسش‌های دشوار نه‌تنها اجتناب‌ناپذیر، بلکه ضرورتی اخلاقی است؛ نه برای یافتن پاسخی قطعی -که شاید هرگز دست‌یافتنی نباشد- بلکه به‌منزله‌ی رهیافتی برای ادامه دادن انسانیت.

 

علم و بی‌طرفی اخلاقی: روایت کلاسیک
با طلوع علم مدرن در قرن هفدهم، تصویری ریشه‌دار در میان دانشمندان و فیلسوفان شکل گرفت که علم را فعالیتی خنثی، بی‌طرف و مستقل از ارزش‌های اخلاقی و سیاسی می‌دانست. مطابق این دیدگاه، علم تلاشی برای کشف واقعیت‌های عینی طبیعت بود؛ فرآیندی که قواعد آن صرفا بر مشاهده، آزمایش و استدلال استوار است و از قلمرو داوری‌های ارزشی به‌کلی جداست.
این روایت کلاسیک، که در قرن نوزدهم با آرمان «علم برای علم» نهادینه شد، به شکل‌گیری نوعی فاصله‌ی ساختاری میان علم و اخلاق انجامید. در این چشم‌انداز، دانشمند نه کنشگری ارزشی، بلکه ناظری بی‌طرف و تنها متعهد به حقیقت است. همان‌طور که ماکس وبر در سخنرانی مشهور خود «علم به‌مثابه حرفه» تاکید می‌کرد:
«دانشمند باید از هرگونه داوری ارزشی پرهیز کند؛ علم نه می‌تواند بگوید چگونه باید زندگی کنیم، و نه باید بخواهد چنین کاری کند.»
دانش، قدرت است
با این حال، همین ایده‌ی بی‌طرفی، از همان آغاز با نوعی نگاه ابزارگرایانه به علم همراه بود؛ نگاهی که یکی از خاستگاه‌های آن را می‌توان در اندیشه‌های فرانسیس بیکن (۱۵۶۱–۱۶۲۶) یافت. بیکن در ارغنون نو، علم را نه صرفا تلاشی برای شناخت، بلکه ابزاری برای تسلط بر طبیعت معرفی می‌کرد. عبارت مشهور او، «دانش، قدرت است» در واقع به معنای قدرت شناختی صرف نبود، بلکه به امکان تسلط تکنیکی بر طبیعت و بهره‌برداری عملی از آن برای منافع انسانی اشاره داشت.
استعاره‌های بیکن -از «بازجویی از طبیعت» تا «فتح اسرار آن»- نشانه‌هایی از جهت‌گیری سلطه‌محور و ابزاری علم مدرن بودند. در این رویکرد، طبیعت به شی قابل مهار، تجزیه و بازتولید تبدیل می‌شود. این تصویر جدید از علم، که با پیشرفت فناوری، سیاست‌های استعماری و منطق صنعتی تقویت شد، با تلقی‌های پیشامدرن -مانند نگاه یونانی به هماهنگی کیهانی یا نگرش قرون‌وسطایی به نظم الاهی- تفاوتی بنیادین داشت:
علم دیگر نه کشف معنای هستی، بلکه ابزاری طراحی‌شده برای مداخله و دگرگونی بود.

علم به‌مثابه ابزار تکنیکی و اخلاقا خنثی؟
نگاه بیکنی، به لحاظ اخلاقی، بر نوعی توجیه پیامدگرا (consequentialist justification) استوار است: اگر علم به نتایج مفید منجر شود -مانند بهبود زندگی یا افزایش رفاه- خودبه‌خود موجه تلقی می‌شود. اما این رویکرد، بندرت به پیامدهای ناخواسته، مسیرهای بدیل، یا جهت‌گیری‌های نهادی علم می‌پردازد.
در اینجا می‌توان از مفهوم مهمی در فلسفه فناوری بهره گرفت: تجسم‌یافتگی فناوری (technological embodiment). بر این اساس، فناوری‌ها نه خنثی‌اند و نه فقط ابزارهای بی‌ارزش؛ آن‌ها حامل ارزش‌هایی‌اند که در طراحی، کارکرد و الگوهای استفاده‌شان «تجسم» یافته‌اند. اگر علم بیکنی به تولید فناوری‌هایی، حتی مفید، منجر شود که اساسا مبتنی بر سلطه، بهره‌کشی یا کنترل‌اند، نمی‌توان آن را از مسوولیت اخلاقی مبرا دانست.
از بازجویی طبیعت تا مهندسی انسان
در قرن بیستم، این جهت‌گیری ابزاری و سلطه‌گرایانه به‌ویژه با توسعه سلاح‌های هسته‌ای، سیستم‌های نظارتی و مهندسی زیستی، موضوع نقدهای جدی قرار گرفت. اندیشمندانی چون کارولین مرچنت در مرگ طبیعت (1980)، و وندی براون، نشان دادند که علم مدرن، اغلب در پی تسلط ساختاریافته بر طبیعت، بدن، و دیگری (شامل غیرغربی، غیرمرد، غیرانسان) عمل کرده است.
دانشمندان فمینیستِ علم، از جمله هلن لانگینو و ایو کلر، بر آن‌اند که استعاره‌های سلطه‌آمیز در زبان بیکن، زمینه‌ساز شکل‌گیری نهادهایی شده‌اند که پروژه‌های علمی را از درون با منطق قدرت، کنترل و تبعیض آغشته کرده‌اند؛ از پروژه‌ی منهتن و بمباران اتمی گرفته تا سیاست‌های کنترل جمعیت یا توسعه نظامی.
هلن لانگینو در کتاب علم به مثابه معرفت اجتماعی، نشان می‌دهد که زبان علمی بیکن -مانند «بازجویی از طبیعت» یا «مطیع‌سازی آن»-تنها استعاره نیست، بلکه بازتاب روابط جنسیتی، طبقاتی و سیاسی در فرآیند علم است.
اندرو فینبرگ در کتاب نظریه‌ی انتقادی تکنولوژی تصریح می‌کند: «برنامه‌ی بیکن برای علم، نه به آزادی، بلکه به تکوین نهادهایی انجامید که علم را در خدمت صنعت و سیاست قرار دادند. از همان آغاز، علم مدرن با قدرت گره خورده بود.»
ایوان ایلیچ نیز در نقدی رادیکال، تاکید می‌کند که علم بیکنی، تخصص علمی را به ابزاری برای مهندسی اجتماعی و فرهنگی بدل کرده است؛ جایی که حتی انسان، در کنار طبیعت، به سوژه‌ی تکنولوژیک بدل می‌شود.
جروم راوتز در کتاب دانش علمی و مشکلات اجتماعی آن، به‌روشنی نشان می‌دهد که علم هرگز از ارزش‌ها جدا نبوده، بلکه ارزش‌های اجتماعی در شکل‌گیری پرسش‌های علمی، تامین بودجه، و انتشار نتایج، نقش بنیادین داشته‌اند. از نظر او، «علم بدون مسوولیت اخلاقی، خطری بالقوه برای جامعه است.»
در نهایت، روایت کلاسیک از «علم بی‌طرف» اگرچه در چارچوبی انتزاعی و آرمانی قابل درک است، اما در بستر تاریخی، فلسفی و نهادی علم، همواره با پرسش‌هایی درباره قدرت، ابزارمندی و مسوولیت اخلاقی همراه بوده است.

خاستگاه‌های فلسفه اخلاق در علم و تکنولوژی: از هیروشیما تا بدن زنانه
بحث اخلاق در علم، برای بسیاری، با تصویری آشنا آغاز می‌شود: آزمایش‌های هسته‌ای، انفجار هیروشیما و ناکازاکی. پروژه‌ی منهتن و بمب اتم، نخستین تکانه‌ی جدی‌ای بود که پرسش‌هایی اخلاقی را در دل علمِ مدرن پدید آورد: آیا دانشمند صرفا باید درباره‌ی درستی نظریه‌اش پاسخ‌گو باشد؟ یا باید در برابر پیامدهای اجتماعی و سیاسی کار خود نیز مسوول باشد؟
اما اخلاق علم، برخلاف آنچه گاه تصور می‌شود، تنها از دل پروژه‌های نظامی زاده نشد. دهه‌های ۱۹۶۰ و ۱۹۷۰ شاهد شکل‌گیری پرسش‌هایی نو در دل جنبش‌های اجتماعی بودند. فمینیست‌ها، کنش‌گران محیط زیست، فعالان ضدنژادپرستی، و منتقدان سرمایه‌داری صنعتی، هر یک از زاویه‌ای تازه به علم نگریستند: علم به‌مثابه نهادی که نه فقط واقعیت را توصیف، بلکه ارزش‌ها را بازتولید می‌کند.
از بدن زنانه تا عدالت تکنولوژیک
یکی از پرسش‌های کلیدی‌ای که جنبش فمینیستی پیش کشید این بود: علم در خدمت چه کسی است؟ وقتی پزشکی به مساله‌ی سقط جنین یا کنترل بارداری می‌پردازد، آیا تنها با یک پدیده‌ی طبیعی مواجه است؟ یا با پدیده‌ای سیاسی، اجتماعی، و اخلاقی که با بدن زنانه، اختیار، و سلطه درآمیخته است؟ در این‌جا، علم دیگر بی‌طرف نیست. استفاده از فناوری‌های تولید مثل مصنوعی (مانند IVF) یا شیوه‌های تشخیص پیش از تولد، تنها «فناوری» نیستند؛ بلکه بیان‌گر نوعی نگاه به بدن، خانواده، و آینده‌اند. تصمیم برای سقط جنین یا حفظ آن، پرسشی صرفا زیستی نیست؛ بلکه پرسشی است در باب ارزش، اختیار، و معنا.
این پرسش‌ها، بعدها به سایر حوزه‌ها نیز راه یافتند: آیا طراحی الگوریتم‌های هوش مصنوعی باید به عدالت اجتماعی پاسخ‌گو باشد؟ آیا تصمیمات مرگبار پهپادهای خودمختار می‌توانند اخلاقا توجیه‌پذیر باشند؟ چه کسی مسوول خطای یک سیستم خودران یا نرم‌افزار تبعیض‌آمیز استخدام است؟
در ادامه چند نمونه‌ی مهم و چالش‌برانگیز معاصر مرور خواهد شد:
۱. هوش مصنوعی و الگوریتم‌های تبعیض‌آمیز
پیشرفت در یادگیری ماشین و هوش مصنوعی، اگرچه امیدهای زیادی برای بهبود تصمیم‌گیری و بهره‌وری ایجاد کرده، اما هم‌زمان، مسائل اخلاقی جدی درباره شفافیت، تبعیض، و مسوولیت به بار آورده است.
مطالعاتی چون پژوهش‌های کیتی اونیل، دانشمند داده و ریاضیدان، در کتاب ریاضی به مانند یک اسلحه نابودگرنشان می‌دهند که الگوریتم‌هایی که در بانک‌ها، پلیس، نظام سلامت، و دانشگاه‌ها استفاده می‌شوند، اغلب بر داده‌هایی بنا شده‌اند که سوگیری اجتماعی و نژادی دارند. این الگوریتم‌ها نه‌تنها تبعیض را بازتولید می‌کنند، بلکه به دلیل غیرشفاف بودن، از مسوولیت‌پذیری اخلاقی هم می‌گریزند.
پرسش محوری در این حوزه آن است: چه کسی مسوول تصمیم‌گیری یک الگوریتم است؟ طراح آن؟ کارفرما؟ دولت؟ پاسخ به این پرسش، مستلزم بازاندیشی در اخلاق مسوولیت در بستر فناوری‌های نوین است.
۲. زیست‌فناوری و مهندسی ژنتیک
با ظهور فناوری‌هایی چون CRISPR، امکان ویرایش ژن‌های انسانی به واقعیتی علمی بدل شده است. این فناوری، از یک سو امیدبخش درمان بیماری‌های ژنتیکی است، اما از سوی دیگر، به مباحثی چون «طراحی نوزاد»، دستکاری صفات غیرپاتولوژیک، و نابرابری‌های ژنتیکی دامن زده است.
مورد هی جیانکویی، دانشمند چینی که بدون شفافیت و نظارت علمی، اقدام به ویرایش ژنوم دو نوزاد کرد، نمونه‌ای از عبور خطرناک از مرزهای اخلاقی بود که به واکنش شدید جامعه علمی جهانی انجامید. پرسش کلیدی اینجاست: آیا دانستن توانستن است؟ آیا هر کاری که از نظر علمی ممکن است، اخلاقا نیز مجاز است؟
اخلاق زیستی – که در ادامه به آن خواهیم پرداخت- در این زمینه هشدار می‌دهد که پیشرفت علمی باید در پرتو اصولی همچون رضایت آگاهانه، عدالت در دسترسی، و عدم آسیب غیرضروری هدایت شود.
۳. علم، جنگ و سلاح‌های هوشمند
ورود علم داده، هوش مصنوعی، و فناوری‌های ارتباطی به عرصه جنگ، نوعی «نظامی‌سازی علم» در عصر دیجیتال را رقم زده است. پهپادهای مسلح خودکار، سلاح‌های سایبری، و الگوریتم‌های تصمیم‌گیری جنگی، مرز میان انسان و ماشین در کشتار را مبهم ساخته‌اند.
بسیاری از منتقدان هشدار داده‌اند که تصمیم‌گیری ماشینی درباره مرگ و زندگی، نه‌تنها مشکل‌ساز است، بلکه مسوولیت انسانی را از میدان خارج می‌کند. چه کسی پاسخ‌گوست اگر یک پهپاد خودمختار، به اشتباه غیرنظامیان را هدف بگیرد؟ این پرسش، نمونه‌ی بارز «فرار از مسوولیت اخلاقی» در فناوری‌های نظامی است.
۴. بحران اقلیمی و مسوولیت علم در برابر آینده

تغییرات اقلیمی، بزرگ‌ترین چالش اخلاقی و علمی قرن حاضر است. گرچه علم نقش مهمی در شناخت علل و پیش‌بینی پیامدهای این بحران دارد، اما پرسش اینجاست که علم چه نقشی در سیاست‌گذاری و هشدار ایفا می‌کند؟ همچنین نقش برخی نهادهای علمی و شرکت‌های بزرگ نفتی در لاپوشانی یا تضعیف شواهد علمی درباره گرمایش زمین، بار دیگر یادآور تقاطع خطرناک علم، سرمایه، و قدرت است.
۵. داده‌های زیستی و نظارت: از سلامت تا سلطه
توسعه فناوری‌های بیومتریک (اثر انگشت، تشخیص چهره، ژنتیک پزشکی و…) فرصت‌های بزرگی برای بهبود سلامت عمومی فراهم کرده است. اما این فناوری‌ها، به‌ویژه در بستر دولت‌های اقتدارگرا یا شرکت‌های انحصاری، ابزارهایی برای نظارت، سانسور، و سلطه نیز بوده‌اند.
افشای پروژه‌های نظارتی در چین، یا همکاری شرکت‌های بیوتکنولوژی با دولت‌ها برای استخراج اطلاعات ژنتیکی بدون رضایت آگاهانه، بار دیگر مسوولیت علمی را به پرسش می‌کشد. اخلاق پژوهش، حفظ حریم خصوصی، و شفافیت در کاربرد داده‌ها، همگی محورهای مسوولیت اخلاقی در این زمینه‌اند.
اخلاق در علم: از حاشیه به متن
در این بستر، مطالعات اخلاقی در علم و فناوری کم‌کم از حاشیه‌ی مباحث علمی به متن آمدند. امروز دیگر نمی‌توان درباره‌ی علم، بدون در نظر گرفتن پیامدهای اخلاقی و اجتماعی آن سخن گفت. از آزمایش‌های ژنتیکی گرفته تا داده‌کاوی‌های عظیم، از فناوری‌های نظارتی تا تسلیحات هوشمند، همگی نیازمند چارچوب‌های اخلاقی‌اند که بتوانند میان امکان و مصلحت، میان کارایی و عدالت، تمایز بگذارند.
در واقع، «علمِ خنثی» در برابر واقعیت اجتماعی و انسانی، یک افسانه‌ی مدرن است. فناوری و علم، همواره با ارزش‌ها گره خورده‌اند؛ چه این ارزش‌ها ناآگاهانه در پس ذهن طراحان باشند، چه آگاهانه در قالب اهداف نظامی، سیاسی یا اقتصادی دنبال شوند.

علم و مسوولیت اخلاقی: چشم‌اندازهای گوناگون

(ادامه دارد …)

 

مهندس سعیده خلجی
کارشناس ارشد مهندسی پلیمر

 

متن کامل این مقاله را در شماره 274 ماهنامه بسپار که در نیمه مرداد 1404 منتشر شده است، می خوانید.

در صورت تمایل به دریافت نسخه نمونه رایگان و یا دریافت اشتراک با شماره های ۰۲۱۷۷۵۲۳۵۵۳ و ۰۲۱۷۷۵۳۳۱۵۸ داخلی ۳ سرکار خانم ارشاد تماس بگیرید. نسخه الکترونیک این شماره از طریق طاقچه  و  فیدیبو  قابل دسترسی است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا