وبلاگ دانشجویان هوش مصنوعی پردیس علوم و تحقیقات بوشهر

وبلاگ دانشجویان هوش مصنوعی پردیس علوم و تحقیقات بوشهر

پل ارتباطی دانشجویان با استاد بذرافکن
وبلاگ دانشجویان هوش مصنوعی پردیس علوم و تحقیقات بوشهر

وبلاگ دانشجویان هوش مصنوعی پردیس علوم و تحقیقات بوشهر

پل ارتباطی دانشجویان با استاد بذرافکن

زمان بندی جلسات آتی و تحویل پروژه دروس استاد بذرافکن

زمان بندی جلسات آتی و تحویل پروژه دروس استاد بذرافکن

دانشجویان گرامی توجه نمایند ،

آخرین جلسات درس و ارایه پروژه نهایی دروس استاد بذرافکن به شرح زیر می باشد :

 

پنج شنبه 4 دی و جمعه 5 دی ، کلاس های استاد بذرافکن تشکیل نمی شوند.

و جلسات پایانی :

پنج شنبه 11 دیماه و جمعه 12 دیماه کلاس ها برگزار شده و درس داده می شود.

و بعد از این دو روز ، روز های شنبه 13 دی و یکشنبه 14 دی ، زمان ارایه پروژه نهایی دانشجویان می باشد.

متعاقبا ساعت دقیق ارایه پروژه نهایی برای هر درس تعیین شده و اطلاع رسانی می شود.

 

هر دانشجو برای هرپروژه پایانی باید 4 فایل زیر را موقع ارایه تحویل دهد :

1) فایل اصلی مقاله (pdf)

2) فایل داکیومنت ترجمه و توضیح مقاله (doc)

3) فایل اسلاید ارایه مقاله (ppt)

4) فایل های برنامه نویسی پروژه


زمان دقیق ارائه پروژه نهایی دروس استاد بذرافکن :

 

روز شنبه 13 دی 93 :

ساعت 8 الی 11 --> ارائه پروژه درس شبکه های عصبی

ساعت 11 الی 14 --> ارائه پروژه درس یادگیری ماشین

ساعت 14 الی 17 --> ارائه پروژه درس پردازش زبان های طبیعی

 

روز یکشنبه 14 دی 93 :

ساعت 8 الی 11 --> ارائه پروژه درس شناسایی آماری الگو

ساعت 11 الی 14 --> ارائه پروژه درس شناسایی ساختاری الگو

مطالب آماری مربوط بهcollocation زبان های طبیعی

برای یادگیری بهترمطالب collocation به سایت زیر مراجعه کنید

http://www.socscistatistics.com/tests/studentttest/

موضوعات جدید یادگیری ماشین

What are currently the hot topics in Machine Learning research and in real applications?

Currently, there are many topics in ML research which are/can be used widely in real applications. I wonder what are key topics which we should focus doing research and studying.

1. Deep learning [5] seems to be getting the most press right now. It is a form of a Neural Network (with many neurons/layers). Articles are currently being published in the New Yorker [1] and the New York Times[2] on Deep Learning.

2. Combining Support Vector Machines (SVMs) and Stochastic Gradient Decent (SGD) is also interesting. SVMs are really interesting and useful because you can use the kernel trick [10] to transform your data and solve a non-linear problem using a linear model (the SVM). A consequence of this method is the training runtime and memory consumption of the SVM scales with size of the data set. This situation makes it very hard to train SVMs on large data sets. SGD is a method that uses a random process to allow machine learning algorithms to converge faster. To make a long story short, you can combine SVMs and SGD to train SVMs on larger data sets (theoretically). For more info, read this link[4].

3. Because computers are now fast, cheap, and plentiful, Bayesian statistics is now becoming very popular again (this is definitely not "new"). For a long time it was not feasible to use Bayesian techniques because you would need to perform probabilistic integrations by hand (when calculating the evidence). Today, Bayesist are using Monte Carlo Markov Chains[6], Grid Approximations[7], Gibbs Sampling[8], Metropolis Algorithm [13], etc. For more information, watch the videos on Bayesian Networks on Coursera. or a read these books [11], [12] (They're da bomb!!!)

4. Any of the algorithms described in the paper "Map Reduce for Machine Learning on a Multicore"[3]. This paper talks about how to take a machine learning algorithm/problem and distribute it across multiple computers/cores. It has very important implications because it means that all of the algorithms mentioned in the paper can be translated into a map-reduce format and distributed across a cluster of computers. Essentially, there would never be a situation where the data set is too large because you could just add more computers to the Hadoop cluster. This paper was published a while ago, but not all of the algorithms have been implemented into Mahout yet.

Machine learning is a really large field of study. I am sure there are a lot more topics but these are four I definitely find interesting.

[1] Is “Deep Learning” a Revolution in Artificial Intelligence?

[2] Scientists See Advances in Deep Learning, a Part of Artificial Intelligence

[3] http://www.cs.stanford.edu/peopl...

[4] Kernel Approximations for Efficient SVMs (and other feature extraction methods) [update]

عدم تشکیل کلاس های روز چهارشنبه 6 و پنج شنبه 7 آذر

دانشجویان محترم کلاس های چهارشنبه و پنج شنبه 6و7 اذر ماه تشکیل نخواهند شد و میانترم های دروس یادگیری ماشین و شناسایی ساختاری الگو به هفته بعد 13 آذر ماه منتقل می شود.

همچنین امتحان میانترم پردازش زبان های طبیعی از روز 13 آذر به 20 آذر تغییر می یابد.