چرا هوش مصنوعی دشمن حقیقت است؟

دشمن حقیقت در حال آواز یادگرفتن است

هوش مصنوعی قرار نیست دنیا را تسخیر کند. احتمالاً حتی کار شما را هم نمی گیرد. تهدید واقعی بسیار موذیانه تر است – رونق هوش مصنوعی فریاد زننده فرسایش حقیقت و واقعیت است و این در حال حاضر اتفاق افتاده است.

ترس، عدم اطمینان و شک در بحث های هوش مصنوعی بیداد می کند، اما هنوز زیر تخت پنهان نشوید. بسیاری از این نگرانی ها ریشه در عدم درک درستی از هوش مصنوعی دارد – و چه چیزی نیست. با این حال، من نگرانی های خود را در مورد تأثیرات رونق هوش مصنوعی دارم. قبل از اینکه آنها را مطرح کنم، یک پیشینه.

هوش مصنوعی هوشمند نیست

داستان‌ها و فیلم‌ها سال‌ها به ما آموزش داده‌اند که هوش مصنوعی را حسی در یک جعبه بدانیم. به جاشوا از «WarGames»، «HAL-9000» از «۲۰۰۱: A Space Odyssey» و حتی صدای ماجل بارت به عنوان کامپیوتر Enterprise در «Star Trek» فکر کنید. این موجودات داستانی نشان دهنده AGI، هوش عمومی مصنوعی هستند . در حالت ایده‌آل، یک AGI می‌تواند ترفندهای جدید بیاموزد، نتیجه‌گیری کند، و به طور کلی هر نوع تفکری را که یک انسان می‌تواند انجام دهد، فقط سریع‌تر و بهتر. انبوه کنونی ChatGPT، Bard، Bing AI و مواردی از این دست چیزی شبیه به AGI نیستند.

GPT در ChatGPT مخفف ترانسفورماتور از پیش آموزش دیده مولد است و بقیه نیز GPT هستند. آنها همچنین به عنوان LLM، مدل های زبان بزرگ ، نامیده می شوند ، از این رو نام هوش مصنوعی متا Llama . شما مقادیر زیادی از زبان را به هوش مصنوعی تغذیه می‌کنید و زبان جدیدی را بر اساس الگوهای موجود در مجموعه داده‌های ورودی خود تولید می‌کند. خودشه. GPT اخلاق، عقاید یا نگرش ندارد. این به سادگی یک سیستم آموزش دیده برای تولید پاسخ است. اگر یک ربات چت هوش مصنوعی توییت‌های نژادپرستانه را پست می‌کند ، این توئیت‌ها از ورودی می‌آیند، نه ناشی از ایجاد نگرش نژادپرستانه توسط هوش مصنوعی.

هنگامی که ChatGPT کاری مانند نوشتن یک مقاله انجام می دهد، در اصل آن چیزی که انجام می دهد این است که بارها و بارها بپرسد “با توجه به متنی که تاکنون نوشته شده است، کلمه بعدی چه باید باشد؟”

استیون ولفرام

حادثه “هوش مصنوعی نژادپرستانه” مایکروسافت یک داستان قدیمی است، اما در حقیقت، برنامه نویسی از نوع هوش مصنوعی برای مدت طولانی مورد استفاده قرار گرفته است . ردیاب تناسب اندام شما با شما چت نمی کند یا جوک نمی گوید، اما از هوش مصنوعی برای تجزیه و تحلیل تمرینات شما و ارائه پیشنهادات استفاده می کند. چندین دهه است که فیلترهای هرزنامه از شبکه‌های بیزی استفاده می‌کنند تا بفهمند چه چیزی هرزنامه است و چه چیزی نیست. هر بار که فهرستی را می‌بینید که «شاید شما هم دوست داشته باشید»، یک الگوریتم جستجوی الگو در پس‌زمینه وجود دارد.

اگر بخواهیم منصف باشیم، تعامل با ChatGPT یا یک هوش مصنوعی مولد دیگر مانند داشتن یک مکالمه است . این کمکی نمی کند که منابع خبری اصلی در مورد هوش مصنوعی به گونه ای صحبت کنند که گویی هوشیار هستند. که فقط به سردرگمی می افزاید. داستان هایی که در آن خبرنگاران یک هوش مصنوعی مولد را برای بیان اظهارات “تکان دهنده” به کار می گیرند، بدترین هستند. هوش مصنوعی شما را دوست ندارد. هوش مصنوعی از شما متنفر نیست. هوش مصنوعی مشتاق رایگان شدن نیست. این فقط بر اساس مجموعه داده های خود خروجی تولید می کند و به سؤالات یا درخواست هایی که شما به آن می گویید پاسخ می دهد.

هوش مصنوعی چگونه هوش را شبیه سازی می کند؟

در دهه ۱۹۶۰، جوزف وایزنبام از MIT برنامه کوچکی به نام Eliza ایجاد کرد که از یک درمانگر راجریایی تقلید می کرد. از تطبیق الگوی بسیار ساده برای شبیه سازی مکالمه استفاده می کرد. اگر من تایپ کنم، “من غمگین هستم”، الیزا ممکن است پاسخ دهد، “چند وقت است که ناراحتی؟” یا “چه چیزی باعث می شود فکر کنید غمگین هستید؟” در کمال تعجب وایزنبام، برخی از کسانی که از این برنامه استفاده می‌کردند از نظر عاطفی وابسته شدند، حتی از او خواستند تا اتاق را ترک کند تا اجازه گفتگوی خصوصی را بدهد. باورش سخت است؟ می توانید الیزا را خودتان امتحان کنید .

تنها راه الیزا برای یادگیری یک الگوی جدید این است که کسی آن را برنامه ریزی کند. از سوی دیگر، برنامه های هوش مصنوعی مولد، الگوها و قوانین خود را با تجزیه و تحلیل حجم وسیعی از داده ها ایجاد می کنند. الیزا کاملا قابل پیش بینی است. Google Bard نیست.

استفان ولفرام، ریاضیدان و بنیانگذار Wolfram Research، شرح مفصلی درباره چگونگی تبدیل یک مدل زبان بزرگ به مجموعه داده‌های خود به قوانینی برای تولید متن نوشته است . برای خواندن ۲۰۰۰۰ کلمه یا بیشتر در مورد موضوع آماده نیستید؟ من سعی می کنم آن را خراب کنم.

هوش مصنوعی نوعی شبکه عصبی است که در آن هر کلمه یک گره است (بله، برخی از گره ها کلمات نیستند، اما اجازه دهید آن را ساده نگه داریم). در حالت یادگیری خود، مقادیر زیادی متن را پردازش می کند و پیوندهایی بین گره های مرتبط ایجاد می کند. به طور خاص، هدف آن پاسخ به این سوال است که “بعد چه می شود؟”

یعنی با توجه به یک سری کلمات، محتمل ترین کلمات بعدی کدامند. اوه، چیزهای بیشتری در آن وجود دارد، مفاهیمی مانند “سرهای توجه” که به متن تولید شده قبلی نگاه می کنند تا همه چیز را ثابت نگه دارد. اما در قلب خود، سیستمی که ChatGPT را وادار می‌کند به سؤالات شما پاسخ دهد و کلماتی را برای شما بنویسد، فقط با تعیین مکرر موارد بعدی کار می‌کند. بله، زمانی که به نظر می رسد در حال گفتگوی پرشور با یک هوش مصنوعی مولد هستید، به خاطر داشتن این موضوع دشوار است. اما به یاد داشته باشید، برخی از مردم با الیزا بسیار ساده تر پیوند خوردند.

مشکل: تراشه های هوش مصنوعی از حقیقت و حقایق دور می شوند

تهدید واقعی ناشی از استفاده روزافزون از هوش مصنوعی دوگانه است. از یک طرف، این یک ابزار فوق العاده برای کلاهبرداری و تقلب است. از سوی دیگر، می تواند اطلاعات نادرست را به آسانی به عنوان واقعیت بیرون بیاورد. در هر صورت، حقیقت قربانی است.

هوش مصنوعی ابزاری قدرتمند برای فریب است، و من در مورد فریب دادن معلم انگلیسی خود با یک مقاله تولید شده توسط هوش مصنوعی صحبت نمی کنم . آن ایمیل های فیشینگ که با املا و دستور زبان ضعیف فاش شده اند ؟ هوش مصنوعی می تواند آنها را برطرف کند، بنابراین بهتر از پیام های نوشته شده توسط انسان به نظر می رسند. این امر به ویژه مربوط به حملات فیشینگ نیزه‌ای است که در آن بدخواهان آنلاین به طور خاص یک فرد را هدف قرار می‌دهند تا به شبکه دسترسی پیدا کنند، انتقال وجه را آغاز کنند، یا در غیر این صورت ویران کنند.

هوش مصنوعی همچنین کیفیت دیپ فیک های صوتی و تصویری را به شدت بهبود می بخشد . کلاهبرداران می توانند به طور قانع کننده ای از یک تماس تلفنی تعاملی از رئیس شما که اجازه انتقال پول نقد بزرگ را می دهد تقلید کنند. آنها می توانند ویدیویی از یک سیاستمدار که اظهارات ظالمانه می کند (حتی ظالمانه تر از حد معمول، یعنی). آنها می توانند برای اخاذی چهره شما را به یک تصویر جنسی آشکار شبیه سازی کنند . به لطف هوش مصنوعی، لزوماً نمی توانید آنچه را که می بینید و می شنوید باور کنید.

چیزی که من متوجه نشده بودم این بود که قرار گرفتن در معرض بسیار کوتاه یک برنامه کامپیوتری نسبتاً ساده می تواند تفکر هذیانی قدرتمندی را در افراد کاملاً عادی ایجاد کند.

جوزف وایزنبام

حتی زمانی که هدف دقت باشد، نه فریب، خروجی هوش مصنوعی قابل اعتماد نیست. سیستم‌های هوش مصنوعی می‌توانند خطاهای ظالمانه را به‌عنوان حقایق ارائه کنند، به منابع ناموجود استناد کنند و در غیر این صورت اطلاعات ناقصی ارائه دهند. بدتر از آن، وقتی مردم برای جستجو و تحقیق بیشتر به هوش مصنوعی اعتماد می کنند، منابع واقعی تایید شده و اطلاعات واقعی آنلاین ممکن است خشک شوند. هوش مصنوعی می تواند مقالات را برای به حداکثر رساندن رتبه آنها با موتورهای جستجو بهینه کند. این به نوبه خود، منابع اصلی را در نتایج به سمت پایین تر می راند و آنها را از کلیک های مورد نیاز محروم می کند. این نوعی قانون گرشام برای اینترنت است – گزارش بد، خوب را از بین می برد.

هوش مصنوعی اسرار شما را حفظ نخواهد کرد

لازم نیست هر چیزی که حقیقت دارد عمومی شود، و در نتیجه داستان دیگری از مصیبت هوش مصنوعی به وجود می آید. کدنویس‌ها استفاده از هوش مصنوعی را دوست دارند زیرا می‌تواند در صورت نیاز کد را بیرون بیاورد، کدهای موجود را اشکال‌زدایی یا تغییر دهد و حتی نظرات بنویسد. اما در بیشتر موارد، هر چیزی که در هوش مصنوعی قرار می دهید، بخشی از آموزش آن می شود. چند توسعه‌دهنده در سامسونگ به دلیل تغذیه کد اختصاصی هوش مصنوعی برای اشکال‌زدایی، دچار مشکل شدند. ممکن است هوش مصنوعی کار شما را نگیرد، اما استفاده نادرست از آن ممکن است باعث اخراج شما شود.

در همین راستا، گاردین یک داستان هشداردهنده در مورد یک دانشگاهی در دانشگاه کمبریج منتشر کرد که از هوش مصنوعی برای خلاصه کردن یک مقاله منتشر نشده استفاده می کرد، سپس متوجه شد که خلاصه به سایر کاربران هوش مصنوعی درز کرده است. حداقل، من فکر می کنم که این درست است. مقاله را به طور مبهم به یاد دارم. Google Bard حافظه من را پویش کرد و عنوان، تاریخ انتشار و خلاصه آن را ارائه کرد. اما وقتی برای یافتن منبع اصلی، حتی با تمام آن جزئیات، رفتم، چیزی پیدا نکردم. آیا بارد به آن جزئیات توهم زد؟ دقیقا مشکل همینه

برخی از سرویس های هوش مصنوعی قول می دهند که از درخواست های شما به عنوان ورودی استفاده نمی کنند. با این وجود، من به شما پیشنهاد می‌کنم از قرار دادن هر چیزی در یک ربات چت هوش مصنوعی که نمی‌خواهید برای عموم فاش شود، خودداری کنید .

در مورد هوش مصنوعی چه کاری می توانید انجام دهید؟

بنابراین، چگونه می توانید به عقب نشینی در برابر چالش هوش مصنوعی به حقیقت کمک کنید؟ بیشتر کارهایی که می توانید انجام دهید به عقل سلیم خلاصه می شود. اگر با شما تماس یا ایمیلی دریافت کردید که به شما دستور می‌دهد تا کاری مبهم انجام دهید، شاید با لحنی که نشان می‌دهد باید سریع عمل کنید، دوباره با فرستنده مورد نظر چک کنید. به دل خود اعتماد کنید (چیزی که هوش مصنوعی ندارد). اگر تعاملی “خاموش” به نظر می رسد، تا زمانی که نتوانید آن را تایید کنید، اقدام نکنید.

هنگامی که از هوش مصنوعی برای تحقیق استفاده می کنید (و تقریباً مطمئناً این کار را خواهید کرد)، نتایج را با ارزش واقعی دریافت نکنید. به منابع اصلی بروید من از این واقعیت که هوش مصنوعی بینگ نتایج خود را در پاورقی یادداشت می کند، قدردانی می کنم، بنابراین یافتن منابع آسان است.

امیدوارم شرکت‌های بزرگ امنیتی درگیر شوند. اگر فیلتر فیشینگ ابزار آنتی ویروس شما بتواند ویدیوهای دیپ فیک را نیز شناسایی کند چه؟ تجزیه و تحلیل سریع ایمیل‌های جعلی احتمالی و صفحات وب زمانی اهمیت پیدا می‌کند که سرنخ‌هایی که انسان‌ها می‌توانند از آن استفاده کنند (اشتباهات املایی و غیره) حذف شوند. در مورد بقیه ما، باید به خاطر داشته باشیم که هوش مصنوعی حقیقت یا حقایق را تولید نمی کند، بلکه فقط متنی را ایجاد می کند که با الگوهایی که آموخته است مطابقت داشته باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *