ندای لرستان

آخرين مطالب

10 کد رایانه‌ای که علم را متحول کردند علمي

10 کد رایانه‌ای که علم را متحول کردند
  بزرگنمايي:

ندای لرستان - در سال 2019 گروه تحقیقاتی "تلسکوپ افق رویداد"(Event Horizon Telescope) اولین تصویر از سیاه‌چاله را به جهانیان نشان دادند. اما تصویر درخشان یک شی حلقه مانند که گروه از آن رونمایی کردند یک تصویر عادی نبود بلکه یک تصویر رایانه‌ای بود.
با انجام محاسبات ریاضیاتی بر روی داده‌های به دست آمده از تلسکوپ‌های رادیویی در ایالات متحده، مکزیک، شیلی، اسپانیا و قطب جنوب این داده‌ها تغییر کرده و تبدیل به تصویر شد. این گروه کد کامپیوتری که برای انجام این کار استفاده کرده بودند را در کنار مقالاتشان منتشر کردند تا جامعه‌ی علمی کاری که آن‌ها انجام داده بودند را ببیند و از آن برای رسیدن به موفقیت‌های بعدی استفاده کنند. این یک الگوی رو به افزایش است. از ستاره‌شناسی گرفته تا جانورشناسی پشت هر کشف بزرگ علمی در عصر جدید یک کامپیوتر وجود دارد.
مایکل لویت(Michael Levitt) یک زیست‌شناس محاسباتی در دانشگاه "استنفورد" کالیفرنیا یکی از برندگان جایزه‌ی نوبل شیمی در سال 2013 بوده است. او این جایزه را برای کار بر روی استراتژی‌های مدل‌سازی در ساختارهای شیمیایی دریافت کرد. لویت خاطرنشان کرد که لپ‌تاپ‌های امروزی 10 هزار برابر حافظه و سرعت بیشتری نسبت به کامپیوتر آزمایشگاه او در سال 1967 دارند. زمانی که کار بر روی پروژه‌اش که برنده‌ی نوبل شد را آغاز کرد.
او می‌گوید: ما امروزه تجهیزات محاسباتی فوق‌العاده‌ای در دست داریم اما مشکل اینجاست که هنوز نیاز به فکر کردن داریم. یک کامپیوتر قوی بدون وجود نرم‌افزاری که بتواند سوالات دانشمندان را پاسخ دهد و محققانی که بدانند چگونه کدنویسی کنند و از آن استفاده کنند بی‌مصرف است.
نیل چو هونگ(Neil Chue Hong) مدیر موسسه‌ی "Software Sustainability" که دفتر مرکزی آن در ادینبرو اسکاتلند است و مرکزی برای بهبود توسعه‌ و استفاده از نرم افزار در علوم است می‌گوید: تحقیقات امروزه کاملا به نرم‌افزارها وابسته هستند. و پارامترهای آن تمام جنبه‌های تحقیقات را شامل می‌شود.
کشف‌های جدید در رسانه‌ها منتشر می‌شوند اما در اینجا می‌خواهیم پشت صحنه‌ی این کشف‌ها و بخش‌ اصلی آن یعنی کدهایی که تحقیقات را در طی چند دهه‌ی گذشته متحول کرده‌اند بررسی کنیم.
اگرچه هیچ لیست این چنینی نمی‌تواند قطعی باشد اما ما طی سال گذشته از ده‌ها محقق نظرسنجی کردیم تا مجموعه‌ای از 10 نرم‌افزار که تاثیری بزرگ بر علم داشتند را مشخص کنیم.
همگردان فورترن: پیشگام در زبان برنامه‌نویسی(1957)
استفاده از اولین کامپیوترها کار راحتی نبود و برنامه‌نویسی به معنای واقعی کلمه با دست و با اتصال مجموعه‌ی مدارها و سیم‌ها انجام می‌شد. دستگاه‌هایی که بعد از آن آمد و زبان برنامه‌نویسی‌ هم‌گذاری(نوعی برنامه‌نویسی سطح پایین) به کاربران کمک کرد تا کامپیوترها را با کد برنامه‌نویسی کنند. اما همچنان نیاز به دانش ساختاری کامپیوتر بود. بنابراین هنوز این کار از دسترس بیشتر دانشمندان خارج بود.
این موضوع در دهه‌ی 1950 با توسعه‌ی زبان برنامه‌نویسی نمادین به خصوص با توسعه‌ی زبان برنامه‌نویسی فورترن(Fortran) که توسط جان باکس(John Backus) و گروهش در موسسه‌ی آی‌بی‌ام در سن‌خوزه کالیفرنیا ایجاد شده بود تغییر کرد. با استفاده از زبان برنامه‌نویسی فورترن کاربران می‌توانند برنامه‌نویسی را با دستورالعمل‌هایی که برای انسان‌ها قابل خواندن است انجام دهند. یک همگردان(compiler) سپس این دستورالعمل‌ها را به یک کد سریع و کارآمد ماشینی تبدیل می‌کند.

ندای لرستان


اگرچه هنوز هم برنامه‌نویسی کار آسانی نبود. در ابتدای کار برنامه‌نویسان از مجموعه‌ای کارت برای وارد کردن کدها استفاده می‌کردند و برای یک شبیه‌سازی پیچیده ده‌ها هزار کارت نیاز بود. سیوکورو مانابه(Syukuro Manabe) اقلیم شناس در دانشگاه پرینستون نیوجرسی می‌گوید: فورترن برنامه‌نویسی را برای آن دسته از محققانی که دانشمند در زمینه‌ کامپیوتر نبودند نیز ممکن کرد. برای اولین بار توانستیم خودمان برنامه‌نویسی را انجام دهیم. او و همکارانش از این زبان برنامه‌نویسی استفاده کردند تا یکی از موفق‌ترین مدل‌های اقلیمی را بسازند.
اکنون پس از گذشت هشت دهه فورترن همچنان به طور گسترده‌ای استفاده می‌شود. از جمله در مدل‌سازی اقلیمی، دینامیک سیالات، شیمی محاسباتی و هر موضوعی که در آن از جبر خطی پیچیده استفاده شود و نیاز به کامپیوترهای قدرتمند برای بررسی سریع اعداد باشد. کدی که در نتیجه به دست می‌آید سریع است و هنوز تعداد زیادی از برنامه‌نویسان وجود دارند که می‌دانند چگونه آن را بنویسند. نوع قدیمی برنامه‌نویسی فورترن هنوز هم در آزمایشگاه‌ها و ابررایانه‌ها در سراسر جهان مورد استفاده قرار می‌گیرد.
پردازنده سیگنال: "تبدیل فوریه" سریع(1965)
هنگامی که اخترشناسان رادیویی آسمان را بررسی می‌کردند سیگنالی پیچیده یافتند که با گذر زمان تغییر می‌کرد. برای فهمیدن ماهیت این امواج رادیویی آن‌ها باید می‌فهمیدند که این سیگنال‌ها به عنوان تابع فرکانسی چه شکلی دارند. انجام یک فرآیند ریاضیاتی به نام "تبدیل فوریه"(Fourier transform) به محققان در انجام این کار کمک می‌کرد. مشکل این بود که این روش ناکارآمد بود و برای یک مجموعه‌ داده با پایه N به محاسباتی با پایه‌ی N به توان 2 نیاز است.
در سال 1965 ریاضی‌دانان ایالات متحده، جیمز کولی(James Cooley) و جان توکی(John Tukey) راه حلی برای بهبود این فرآیند پیدا کردند. آن‌ها با استفاده از روش "بازگشت" رویکرد برنامه‌نویسی "تقسیم و حل" را که در آن الگوریتم مدام خودش را تکرار می کند، فرآیند برنامه نویسی "تبدیل فوریه" سریع را آسان‌تر کرد که با افزایش N سرعت نیز افزایش پیدا می‌کرد و به طور مثال برای عدد 1000 سرعت 100 برابر بیشتر می‌شود.

ندای لرستان


نیک ترفتن(Nick Trefethen)، ریاضیدان دانشگاه آکسفورد می‌گوید: این کشف در اصل کشفی بود که قبلا اتفاق افتاده بود توسط ریاضیدان آلمانی کارل فردریچ گاس(Carl Friedrich Gauss) در سال 1805 اما او هیچوقت آن را منتشر نکرد اما کولی و توکی این کار را انجام دادند و این یک اتفاق فوق‌العاده در ریاضیات کاربردی و مهندسی است. از کد "تبدیل فوریه" بارها و بارها استفاده شده است.
پاول آدامز(Paul Adams)، مدیر بخش بیوفیزیک مولکولی و تصویربرداری بیولوژیکی در آزمایشگاه ملی لارنس برکلی(Lawrence Berkeley National Laboratory) است. او می‌گوید هنگامی که در سال 1995 ساختار پروتئین باکتریایی GroEL را اصلاح و پالایش می‌کردیم این محاسبات به کمک فرآیند "تبدیل فوریه" ساعت‌ها طول کشید و اگر کمک این فرآیند نبود نمی‌دانم چگونه این کار را می‌کردیم. احتمالا تا ابد به طول می‌انجامید.
دسته‌بندی مولکولی: بانک داده‌های بیولوژیکی(1965)
بانک‌های اطلاعاتی مولفه‌های یکپارچه‌ی تحقیقات علمی امروزه هستند که به راحتی می‌توان از این حقیقت که آن‌ها به وسیله‌ی نرم‌افزارها تهیه می‌شوند چشم‌پوشی کرد. در طول چند دهه‌ی گذشته این منابع از نظر اندازه بسیار رشد کرده‌اند و بسیاری از حوزه‌ها را شکل داده‌اند اما این تغییرات در هیچ‌کجا به اندازه‌ی حوزه‌ی زیست‌شناسی قابل‌توجه نبوده است.
مجموعه‌ داده‌های عظیمی که امروزه از ژنوم‌ها و پروتئین‌ها داریم ریشه در کارهای مارگارت دیهوف(Margaret Dayhoff) دارد. او پیشگام در بیوانفورماتیک در بنیاد تحقیقات ملی پزشکی در سیلور اسپرینگ(Silver Spring) مرینلند(Maryland) بود. در اوایل دهه‌ی 1960، هنگامی که زیست‌شناسان تلاش می‌کردند تا توالی آمینواسید را جداسازی کنند، دیهوف شروع به جمع‌آوری این اطلاعات برای جستجوی سرنخ‌هایی از روابط تکاملی بین گونه‌های مختلف کرد.
اطلس او از توالی پروتئین‌ها و ساختار آن‌ها در سال 1965 با همکاری سه نویسنده‌ی دیگر منتشر شد. آن‌ها در این مقاله آنچه را که به عنوان توالی، ساختار و شباهت‌های 65 پروتئین شناخته می‌شد توضیح دادند. برونو استریسر(Bruno Strasser) که یک مورخ است در سال 2010 نوشت: این مجموعه اولین مجموعه‌ای بود که برای پاسخ به یک سوال در یک تحقیق خاص مربوط نبود. کدهای آن بر روی کارت‌هایی پانچ شدند تا بتوان این مجموعه‌ داده‌ را گسترش داد و جستجو کرد.

ندای لرستان


"بانک داده پروتئین" که امروزه جزئیات بیش از 170 هزار ساختار درشت‌مولکول را در اختیار دارد کار خود را در سال 1971 آغاز کرد. راسل دولیتل(Russell Doolittle) یک زیست‌شناس تکاملی از دانشگاه کالیفرنیا در سن‌دیگو مجموعه داده پروتئین دیگری به نام "Newat" در سال 1981 ایجاد کرد و در سال 1982 بانک داده دیگری به نام "بانک ژن"(GenBank) ایجاد شد این مجموعه شامل داده‌های دی‌ان‌ای( ‌DNA ) است که توسط موسسه ملی بهداشت ایالات متحده نگهداری می‌شود.
ارزش چنین منابعی در ژوئیه سال 1983 مشخص شد هنگامی که گروه‌های مجزا به رهبری مایکل واترفیلد(Michael Waterfield) یک زیست‌شناس پروتئین و شیمی‌دان در موسسه‌ی تحقیقات سرطان ایمپریال در لندن(Imperial Cancer Research Fund in London) و دولیتل به طور مستقل شباهت‌هایی در توالی یک عامل خاص در رشد انسان و پروتئینی در ویروس ایجاد کننده‌ی سرطان در میمون‌ها گزارش دادند. این مشاهدات حاکی از مکانیزمی در ویروس بود که عامل رشد را شبیه‌سازی می‌کرد و باعث رشد کنترل نشده‌ی سلول‌ها می‌شد.
جیمز استل(James Ostell)، مدیر سابق مرکز ملی اطلاعات زیست‌فناوری ایالات متحده می‌گوید: برای آن دسته از زیس‌شناسان که به کامپیوتر و آمار علاقه‌مند نیستند باید بگویم ما می‌توانیم با بررسی توالی‌ها اطلاعاتی درباره‌ی سرطان‌ها به دست آوریم و علاوه بر طراحی آزمایش‌ها برای بررسی فرضیه‌ها، محققان می‌توانند داده‌های عمومی به دست آورند که تاکنون افرادی که واقعا داده‌ها را جمع‌آوری می‌کنند به آن دست نیافته باشند و هنگامی که داده‌های محتلف به یکدیگر متصل شوند این قدرت افزایش می‌یابد. موضوعی که محققان مرکز ملی اطلاعات زیست‌فناوری (NCBI) در سال 1991 به وسیله‌ی جستجوگر پیشرفته‌ی آنتره(Entrez) به آن دست یافتند. این جستجوگر به محققان کمک می کند تا آزادانه از موضوعی همچون DNA به موضوع ادبیات یا پروتئین بروند و بازگردند.
پیش‌بینی آب و هوا: مدل‌سازی دورانی(1969)
با پایان جنگ جهانی دوم، جان ون نیومن(john von Neumann) پیشگام در عرصه‌ی کامپیوتر، کامپیوترهایی کرد که پیش از آن برای محاسبه‌ی مسیر پرواز و طراحی اسلحه استفاده می‌شدند برای حل مشکل پیش بینی آب و هوا تغییر کاربری داد.
مانابه توضیح می‌دهد: تا آن زمان پیش‌بینی آب و هوا تنها کاری تجربی بود که با استفاده از تجربه و ظن و گمان، وضعیت جوی آینده را پیش‌بینی می‌کردند. اما گروه ون نیومن قصد داشتند تا با استفاده از قوانین فیزیک به صورت عددی آب‌و هوا را پیش‌بینی کنند.
ونکاترامانی بالاجی(Venkatramani Balaji)، رئیس بخش مدل‌سازی سیستم‌ها در آزمایشگاه دینامیک سیالات ژئوفیزیکی اداره ملی اقیانوس‌شناسی و اقلیمی پرینستون در نیوجرسی می‌گوید: این معادلات برای دهه‌ها شناخته شده بودند اما هواشناسان اولیه نتوانستند آن‌هارا حل کنند. برای انجام این کار باید شرایط جوی موجود در آن لحظه وارد می‌شد و تغییرات آن در طول مدتی کوتاه بررسی می‌شد و این کار تکرار می‌شد. این فرآیند بسیار طولانی و وقت‌گیر بود و تکمیل معادله‌ی ریاضیاتی آن پیش از تغییر آب و هوا ممکن نبود. در سال 1922 لوئیس فرای ریچاردسون( Lewis Fry Richardson)، یک ریاضیدان ماه‌ها صرف انجام محاسباتی کرد تا آب‌و هوای مونیخ آلمان را پیش‌بینی کند اما نتایج آن کاملا غلط بودند از جمله آن پیش‌بینی‌هایی بود که تحت هیچ شرایطی رخ نخواهند داد. کامپیوترها این مشکل را قابل حل کردند.
در اواخر دهه‌ی 1940 ون نیومن گروه خود را برای پیش‌بینی وضعیت آب و هوا در موسسه‌ی مطالعات پیشرفته پرینستون تاسیس کرد. در سال 1955 گروه دیگری کار بر روی "پیش‌بینی بی‌نهایت آب و هوا" را آغاز کردند که نوعی مدل‌سازی جوی است.
مانابه که در سال 1958 به گروه مدل‌سازی جوی پیوست قصد داشت بر روی مدل‌های جوی کار کند. همکار او کریک برایان(Kirk Bryan) نیز بر روی اقیانوس‌ها کار می‌کرد. در سال 1969 آن‌ها موفق شدند تا کارهایشان را ترکیب کنند و آنچه را که مجله‌ی نیچر در سال 2006 "نقطه عطفی" در محاسبات علمی خواند ایجاد کنند.
مدل‌های امروزی می‌توانند سطح سیاره را به مربع‌های 25 در 25 کیلومتری تقسیم کنند و جو را به ده‌ها سطح تقسیم می‌کند. مدل ترکیبی مانابه و برایان از مربع‌های 500 کیلومتری و 9 سطح استفاده می‌کرد و تنها یک ششم کره‌ی زمین را پوشش می‌داد اما بالاجی می‌گوید: هنوز هم آن مدل کار فوق‌العاده‌ای انجام داد و گروه توانست برای اولین بار تاثیر افزایش سطح دی‌اکسید کربن را به وسیله‌ی فرآیند "درون رایانه‌ای" بررسی کند.
حسابگر بلاسBLAS (1979)
محاسبات علمی معمولا شامل ریاضیات ساده و نمودار و ماتریس است فقط تعداد آن‌ها زیاد است اما در دهه‌ی 1970 هیچ ابزار جهانی برای انجام این محاسبات وجود نداشت در نتیجه برنامه‌نویسانی که در حوزه علم کار می‌کردند زمانشان را صرف تولید کدهایی کارآمد برای انجام محاسبات ریاضیاتی می‌کردند به جای آن که بر روی سوالات علمی تمرکز کنند.
جهان برنامه‌نویسی نیاز به یک ابزار استاندارد داشت و در سال 1979 به آن دست یافت: زیربرنامه‌ی جبر خطی پایه BLAS، استانداری است که تا سال 1990 به تکامل خود ادامه داد و ده‌ها جریان اساسی برای نمودارها و ماتریس‌ها مشخص کرد.

ندای لرستان


جک دونگارا(Jack Dongarra)، دانشمند رایانه در دانشگاه تنسی(Tennessee) که عضو گروه توسعه‌ی بلاس بود می‌گوید: در واقع BLAS محاسبات ریاضی ماتریس و نمودار را به یک واحد محاسباتی کاهش می‌دهد.
تصاویر میکروسکوپی سازمان بهداشت جهانی(1987)
در اوایل دهه‌ی 1980، وین رازبند(Wayne Rasband) در حال کار با یک آزمایشگاه تصویربرداری از مغز در موسسه‌ی ملی بهداشت ایالات متحده در بتسدا(Bethesda) مریلند بود. گروه یک اسکنر برای رقومی کردن(دیجیتالی کردن) (digitize) فیلم‌های اشعه ایکس داشت اما راهی برای تحلیل آن‌ها در کامپیوتر وجود نداشت. بنابراین رازبند برنامه‌ کامپیوتری برای این موضوع نوشت. این برنامه برای کامپیوتر کوچک غیر شخصی 150 هزار دلاری آمریکا به نام "PDP-11" نوشته شده بود. سپس در سال 1987 شرکت اپل از کامپیوتر شخصی اش به نام "Macintosh II" رونمایی کرد که استفاده از آن راحت‌تر بود و مقرون به صرفه تر نیز بود.
رازبند می‌گوید: این کامپیوتر جدید به نظر من به عنوان یک آزمایشگاه بررسی تصویر بسیار بهتر کار می‌کرد. او نرم‌افزارش را به یک پلتفرم جدید منتقل کرد و نام آن را نیز تغییر داد. سیستم تصویر برداری موسسه ملی بهداشت به محققان کمک کرد تا هر تصویری را درون هر رایانه‌ای مشاهده کنند. این نرم‌افزار شامل ایمج جی(ImageJ) نرم‌افزاری مبتنی بر جاوا(JAVA) بود که رازبند آن را برای کاربران ویندوز و سیستم‌عامل لینوکس(Linux) نوشت.

ندای لرستان


بث سیمینی(Beth Cimini)، یک زیست‌شناس محاسباتی که بر روی پلتفرم تصویربرداری موسسه‌ی کمبریج ماساچوشت کار می‌کند می‌گوید: ایمج‌جی در حال حاضر اساسی‌ترین ابزاری است که ما در اختیار داریم، من هیچ زیست‌شناسی نمی‌شناسم که از میکروسکوپ استفاده کرده باشد اما از ایمج‌جی استفاده نکرده باشد.
رازبند می‌گوید: یکی از علت‌های آن رایگان بودن این برنامه است. کوین الیسیری(Kevin Eliceiri) مهندس پزشکی دانشگاه ویسکانسین(Wisconsin) می‌گوید: همچنین آسان بودن این برنامه و امکان تنظیم ابزار آن بسته به نیاز این ابزار را برای کاربران مناسب کرده است.
جستجوگر توالی: بلاست(1990)
برای یک نرم افزار هیچ چیز بهتر از آن نیست که اسمش تبدیل به یک فعل در زبان شود. برای جستجو، گوگل و برای ژنتیک، "بلاست"(BLAST).
تغییرات تکاملی را می‌توان در توالی‌های مولکولی یافت. مانند جابه‌جایی، حذف، فاصله‌ و بازسازی. با جستجوی شباهت‌های بین این توالی‌ها مخصوصا در میان پروتئین‌ها، محققان می‌توانند ارتباطات تکاملی را کشف کنند و بینشی در مورد عملکرد ژن‌ها به دست آورند. برای این کار داده‌های مولکولی که به سرعت رشد می‌کنند باید سریع و جامع بررسی شوند.
دیهوف در سال 1978 بخش مهمی از این مشکل را حل کرد. او ماتریس "جهش پذیرفته نقطه‌ای" ابداع کرد که به محققان اجازه می‌داد تا ارتباط دو پروتئین را نه تنها براساس شباهت توالی بلکه براساس فاصله تکاملی آن‌ها ارزیابی کنند.
در سال 1985 ویلیام پیرسون(William Pearson) از دانشگاه ویرجینیا شارلوتسویل(Virginia in Charlottesville) و دیوید لیپمن(David Lipman) از مرکز ملی اطلاعات زیست‌فناوری الگوریتمی به نام "FASTP" را معرفی کردند که ماتریس دیهوف را با توانایی جستجوی سریع ادغام می‌کرد.
سال‌ها بعد لیپمن به همراه وارن گیش(Warren Gish) و استفن آلتچول(Stephen Altschul) از مرکز ملی اطلاعات زیست‌فناوری، وب میلر(Webb Miller) از دانشگاه ایلاتی پنسیلوانیا و جین میرز(Gene Myers) از دانشگاه آریزونا روش قدرتمندتری از پالایش را ابداع کردند: ابزار پایه‌ای برای جستجوی برهم‌نهی‌های موضعی یا "بلاست"
بلاست که در سال 1990 منتشر شد سرعت جستجو را به حدی رساند که از پس رشد داده‌ها بربیاید و همچنین شباهت‌های داده‌هایی که از نظر تکاملی فاصله داشتند پیدا کند. این ابزار همزمان می‌توانست احتمال رخ دادن چنین شباهت‌هایی را بررسی کند.
آلتچول می‌گوید: نتایج به دست آمده سریع بودند و مهم‌تر اینکه استفاده از آن آسان بود. در دوره‌ای که اطلاعات به وسیله‌ی پست منتقل می‌شدند گیش یک سیستم پست الکترونیکی و بعد از آن هم ساختاری مبتنی بر وب ایجاد کرد تا محققان بتوانند کامپیوترهای مرکز ملی اطلاعات زیست‌فناوری را از راه دور جستجو کنند تا مطمئن شوند داده‌هایی که در دست دارند به روز است.
منبع مقالات پیش‌چاپ(arXiv.org) 1991
در اواخر دهه‌ی 90 فیزیکدانان ذرات به طور معمول نسخه‌هایی از کار خود را برای همکارانشان پست می‌کردند تا نظر آن‌ها را بدانند.
در سال 1991، پائول گینسپراگ(Paul Ginsparg) یک فیزیکدان، که در آن زمان در آزمایشکاه ملی آلاموس مکزیک کار می‌کرد یک ایمیل خودکار ایجاد کرد که به صورت خودکار ارسال می‌شد تا زمینه‌ای برابر برای همه‌ی افراد در زمینه دسترسی به مقالات ایجاد کند. مشترکین روزانه لیستی از مقالات پیش از چاپ دریافت می‌کردند که هرکدام شناسه مخصوص خود را داشتند و با یک ایمیل ساده کاربران می‌توانستند مقاله‌ای را از سیستم کامپیوتری آزمایشگاه دریافت یا بازیابی کنند و همچنین لیستی از مقالات جدید بیابند و یا براساس نام مقاله یا نام نویسنده آن را جستجو کنند.
گینسپراگ قصد داشت تا مقالات را برای مدت سه ماه حفظ کند و سپس محتوی را محدود به جامعه‌ی فیزیک ذرات کند اما یکی از همکارانش او را متقاعد کرد که مقالات را به طور بی‌نهایت حفظ کند.
در سال 1993، گینسپارگ این سیستم را به شبکه جهانی وب منتقل کرد و در سال 1998 نامی به آن داد که تا امروز باقی مانده است: arXiv.org
این منبع اطلاعاتی که اکنون سی‌امین سال خود را می‌گذراند شامل 1.8 میلیون پیش‌چاپ مقالات به طور رایگان است و ماهانه 15 هزار مقاله ارسالی و 30 میلیون دانلود دارد.
جستجوگر داده‌ها: نوت‌بوک آی‌پایتون(2011)
فرناندو پرز(Fernando Pérez) که دانشجوی کارشناسی ارشد در سال 2001 بود، تصمیم گرفت مولفه‌های اصلی زبان برنامه‌نویسی پایتون(Python) را در دست بگیرد.
پایتون یک زبان برنامه‌نویسی تفسیری است که یعنی برنامه‌ها خط به خط اجرا می‌شوند. برنامه نویسان می‌توانند از ابزاری به نام "REPL" استفاده کنند و کدی بنویسند که برنامه‌ای به نام مفسر آن را اجرا کند. "REPL" به جستجوی سریع و تکرار را فراهم می‌کند اما پرز خاطرنشان کرد که پایتون برای علم ساخته نشده بود بنابراین او نسخه‌ی خودش را ساخت که نتیجه‌ی آن آی‌پایتون(IPython) شد. یک مفسر تعاملی که پرز در دسامبر 2001 از آن رونمایی کرد. یک دهه بعد پرز با همکاری برایان گرنجر(Brian Granger) یک فیزیکدان و ایوان پترسون(Evan Patterson) یک ریاضیدان این ابزار را به مرورگر انتقال دادند. با راه‌اندازی آی‌پایتون نوت‌بوک انقلابی در عرصه‌ی داده‌های علمی ایجاد شد. این نرم‌افزار مانند سایر نوت بوک‌ها کدها، نتایج و متن را در یک فایل ادغام می‌کرد اما برخلاف آنها یک نرم‌افزار باز بود و از توسعه‌دهندگان دعوت می‌کرد تا در توسعه آن سهمی داشته باشند.
الکس نت(AlexNet) 2012
هوش مصنوعی دو نوع دارد. یکی از قوانین کدگذاری شده استفاده می کند و دیگری یک کامپیوتر را قادر می‌سازد تا با الگوبرداری از ساختار عصبی مغز "یادگیری" انجام دهد.
جفری هینتون(Geoffrey Hinton) دانشمند رایانه از دانشگاه تورنتو کانادا می‌گوید: برای دهه‌ها محققان حوزه‌ی هوش مصنوعی این رویکرد را "بی‌معنی" می‌خواندند و آن را رد می‌کردند. در سال 2012 دانشجویان هینتون، الکس کریژفسکی(Alex Krizhevsky) و ایلیا ساتسکور( Alex Krizhevsky) خلاف این موضوع را ثابت کردند.
هینتون می‌گوید: در همایشی سالانه که در ImageNet برگزار می‌شود رقابتی بین محققان ایجاد می‌شود تا یک هوش مصنوعی را به وسیله‌ی داده‌های یک میلیون تصویر از اجسام روزمره تربیت کنند و سپس الگوریتم به دست آمده را بر روی یک مجموعه عکس جداگانه آزمایش کنند. در زمانی که بهترین الگوریتم‌ها یک چهارم دسته‌بندی‌ها را اشتباه انجام می‌دادند الگوریتم "یادگیری عمیق" کریژفسکی و ساتسکور که مبتنی بر شبکه‌ی عصبی بود این خطا را تا 16 درصد کاهش داد. هینتون می‌گوید: ما اساسا میزان خطا را نصف کردیم.
هینتون می‌گوید: موفیت گروه در سال 2012 نشان دهنده‌ی ترکیبی از مجموعه‌ داده‌های آموزش، برنامه‌نویسی عالی و قدرت نوظهور واحد پردازش گرافیکی است. ناگهان ما موفق شدیم الگوریتم را 30 برابر سریع‌تر اجرا کنیم.
وی افزود: موفقیت واقعی در اصل سه سال قبل‌تر رخ داد، هنگامی که آزمایشگاهش شبکه‌ی عصبی ساخت که می‌توانست گفتار را با دقتی بیشتر از سایر هوش‌های مصنوعی تشخیص دهد. این موفقیت‌ها باعث شده که امروزه تلفن‌های همراه دستورهای گفتاری را بفهمند و ابزارهای تجزیه و تحلیل عکس بتوانند سلول‌ها را تشخیص دهند و به همین علت است که AlexNet در میان بسیاری از ابزاری که علم و جهان را متحول کرده‌اند جای می‌گیرد.

لینک کوتاه:
https://www.nedayelorestan.ir/Fa/News/200531/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

روشنگری از دلایل اجرای طرح نور؛ به زودی

داستان ابوشجاع

عامل تحریم

واردات گوشت گرم از آفریقا به کشور

جزئیات از سامانه جدید «خودنویس»

بالا و پایین سرخابی‌ها در بورس

توضیحات رئیس سازمان توسعه تجارت درباره نمایشگاه اکسپو

پیش‌بینی جوی آرام برای آخر هفته در لرستان

سراب هنام الشتر؛ چشمه‌ای در دل یک خانه تاریخی

اشتغال‌زایی 350 میلیاردی بسیج سازندگی در لرستان

آمادگی 35 مرکز خرید تضمینی گندم و کلزا در لرستان

لزوم ارتقاء مرکز جامع سلامت اشترینان به بیمارستان

ده نمکی در دو اپیزود

در باکو جایی برای شیعیان نیست

چرا رئیسی به پاکستان سفر کرد؟

صادرات طلای سرخ به 400 تن می‌رسد

صنعت خودرو، قربانی زیاده‌خواهی مسئولان و دلالان

پاسخ معاون وزیر کار در مورد دستمزد کارگران؛ افزایش 119 درصدی حقوق در 3 سال

برگزاری اردوی تیم ملی کستی آزاد جوانان در ساری

روشنایی گردنه زاغه ملایر به طول 5 کیلومتر آماده بهره برداری است

اولین نشست استاندار لرستان با مدیران اقتصادی

معارفه استاندار جدید لرستان | استاندار جدید کیست؟

لرستان صدر جدول؛ تعداد مجوزهای تبدیل شده از 427 هزار گذشت

خانواده شهدا پرچمداران اصلی ایثار و شهادت هستند/ نسل امروز نیازمند آشنایی با شهدا

درخواست خصمانه آرژانتین از پاکستان و سریلانکا علیه ایران

التهاب سیاسی در دانشگاه‌های آمریکا

افزایش سه برابری ظرفیت تبادل برق ایران و ترکمنستان

بررسی طرح مالیات بر عایدی سرمایه؛ نرخ مالیات املاک، خودرو، طلا و ارز چقدر است؟

پاسخ معاون وزیر کار در مورد دستمزد کارگران؛ افزایش حقوق بی‌سابقه بوده، 119 درصد افزایش یافت

56 هزار هکتار از اراضی پلدختر زیر کشت محصولات کشاورزی رفت

پایانی بر شروع دوباره طبابت دندانپزشک قلابی در بروجرد

مبادلات طلا ساماندهی می‌شود

وصول 110 هزار میلیارد تومان فرار مالیاتی در سال گذشته

اتمام بررسی جداول لایحه بودجه 1403 در کمیسیون تلفیق

ابراز تاسف معاون وزیر صمت از کاهش عرضه محصولات پتروشیمی

هشدار وزارت کار: اخبار رسمی کالابرگ‌ را تنها از مراجع رسمی دنبال کنید

319 هزار هکتار از اراضی لرستان در قالب طرح جهش تولید زیر کشت رفته است

پیام تسلیت رئیس بنیاد شهید و امور ایثارگران در پی شهادت جانباز گرانقدر «سلمان کلیوند عباسی»

نشست هم‌اندیشی تشکل‌های ایثارگری با دبیر شورای عالی انقلاب فرهنگی برگزار شد

قاچاقچی پارچه و فندک در لرستان جریمه شد

افزایش 17 برابری خرید شمش طلا در حراج مرکز مبادله

هفت هزار تن چای خارجی اموال تملیکی به مزایده گذاشته شد

خبر خوب برای کارگران؛ اخراج سخت شد

تیرخلاص به خودروی کارکرده

رعایت عدالت و کرامت انسانی رویکرد مدیران لرستان باشد

تک‌صدایی در لرستان نباید داشته باشیم/ هدف‌گذاری برای سفر دوم دولت

وعدۀ افتتاح ورزشگاه خرم‌آباد در سفر دوم رئیس‌جمهور

سازمان مدیریت اعتبار پروژه بیمارستانی کوهدشت را پرداخت نکرده است

معرفی 48 واحد از املاک دانشگاه علوم پزشکی لرستان برای مولدسازی

3 پروژه سفر دولت به لرستان در حوزه آب نیازمند اعتبار هستند