برای فشردهسازی یک پوشه در لینوکس از دستور زیر استفاده شود:
zip -r filename.zip folder
برای فشردهسازی یک پوشه در لینوکس از دستور زیر استفاده شود:
zip -r filename.zip folder
برای چند نمودار در یکی از مقالاتم به مشکل اندازه قلم برخورد کردم. برای رفع این موضوع از کد زیر استفاده می کنم:
import matplotlib
font = {#'family' : 'normal',
'weight' : 'normal',
# 'size' : 22
}
matplotlib.rc('font', **font)
SMALL_SIZE = 14
MEDIUM_SIZE = 16
BIGGER_SIZE = 18
plt.rc('font', size=SMALL_SIZE) # controls default text sizes
plt.rc('axes', titlesize=SMALL_SIZE) # fontsize of the axes title
plt.rc('axes', labelsize=MEDIUM_SIZE) # fontsize of the x and y labels
plt.rc('xtick', labelsize=SMALL_SIZE) # fontsize of the tick labels
plt.rc('ytick', labelsize=SMALL_SIZE) # fontsize of the tick labels
plt.rc('legend', fontsize=SMALL_SIZE) # legend fontsize
plt.rc('figure', titlesize=BIGGER_SIZE) # fontsize of the figure title
c1 = ((1,0.753,0,1))
c2 = ((0.929,0.490,0.192,1))
c3 = ((0.4,0.4,0.4,1))
c4=(0.36,0.61,0.84,1)
c5=(112/255.0,173/255.0,71/255.0,1)
به منظور انجام محاسبات با دقت دلخواه، می توان از کتابخانه های متعددی مانند GNU MP استفاده کرد. یک نمونه ی خوب و سریع در پایتون، کتابخانه mpmath است.
from mpmath import mp
# mpmath is a free (BSD licensed) Python library for real and complex floating-point arithmetic with arbitrary precision.
mp.dps = 2000
from mpmath import sin, cos, acos, asin, abs
راهنمای این کتابخانه در آدرس http://mpmath.org/doc/current/ در دسترس است.
برای استفاده از آن در کنار numpy می توان از راهکار زیر استفاده نمود:
# providing wrappers for mpmath functions in numpy
from numpy import frompyfunc
sin_v = frompyfunc(sin, 1, 1)
asin_v = frompyfunc(asin, 1, 1)
cos_v = frompyfunc(cos, 1, 1)
acos_v = frompyfunc(acos, 1, 1)
همچنین برای تبدیل آن به float در مواردی که خطای
TypeError: float() argument must be a string or a number
دریافت شد؛ می تواند به این معنی باشد که حاصل از نوع مختلط بوده و لازم است به صورت زیر مشکل حل شود:
from mpmath import re
x = re(x)
پی نوشت: البته یافتن ریشه مشکل که چرا حاصلی که باید حقیقی باشد، مختلط شده است از بدیهیات است.
1- به منظور نشاندادن برچسب محیطهای مورد استفاده در متن؛ از بستهی showkeys استفاده میشود:
\usepackage[notref,notcite]{showkeys}
.
موضوعی جالب در توابع بولی
https://en.wikipedia.org/wiki/Algebraic_normal_form
همچنین، مرجع
[1] I. Hussain and T. Shah, “Literature survey on nonlinear components and chaotic nonlinear components of block ciphers,” Nonlinear Dynamics, vol. 74, no. 4, pp. 869–904, Dec. 2013.
نیز مطالعه شود.
در این یادداشت نسبتا طولانی قصد دارم تا ابتدا دیدی کلی از محاسبات کوانتومی را فارغ از هرگونه فرمول ارائه کرده و سپس مراجعی برای ادامهی مطالعهی علاقهمندان فراهم آورم.
در این چالش، کتاب زیبای
Rolf Niedermeier, "Invitation to Fixed Parameter Algorithms", Oxford University, 2006.
را معرفی میکنم. به عنوان یک معارفهی ساده با زمینهی مورد بحث این کتاب میتوانید این مقالهی ویکیپدیا را مطالعه کنید. این کتاب به خوبی از عهدهی دو کار برآمده است. اول، یک مرور کلی بر مطالب ارائه شده تا زمان چاپ است که از آن یک Research Manuscript ساخته است و دیگر، در عین اینکه به مرزهای دانش در این زمینه میپردازد، به عنوان یک کتاب آموزشی نیز طراحی شده است. مطمئن هستم دوستانی که به نظریه الگوریتمی گراف و مباحث پیچیدگی محاسباتی علاقهمند باشند، از مطالعهی این کتاب لذت خواهند برد. میتوانید این کتاب را از libgen به رایگان دریافت کنید.
پی نوشت: ایدهی چالش کتاب بر مبنای این پست دوست عزیزم، آقای گوهرشادی است.
مطالعه این خبر بهانهای برای نوشتن این یادداشت شد. قبلا هم با دادههای حجیم کار کردهام. وجه مشترک پردازش دادههای حجیم دو چیز است! یعنی دو چیز را اگر از متخصصین پردازش دادههای حجیم بگیریم، اکثر الگوریتمهایشان کار نخواهد کرد! اولی توابع درهمساز و دومی نمونهگیری تصادفی!
خبری که ذکر آن رفت، در پایگاه خبری دانشگاه MIT آمده است، تحت عنوان «برای مدیریت دادهی حجیم، آن را کوچک کن!» و بر مبنای مقاله http://arxiv.org/abs/1412.0588 است که در کنفرانس ACM Symposium of Theory of Computing در ماه ژوئن ارائه شده است. صفحه شخصی یکی از نویسندگان این مقاله، http://math.mit.edu/~rpeng/ است. البته ظاهرا این نویسندگان، مقاله دیگری نیز کار کرده اند http://arxiv.org/abs/1408.5099 که بحثش نمونه گیری یکنواخت از یک ماتریس است.
در این مقاله، هدف کاهش تعداد نمونههای یک مساله، یعنی حجم داده و نه بعد آن، است. از این جهت، بیشتر مشابه مقاله زیر است که اخیرا چاپ کرده ام و بخشی از رساله ی دکتری ام است.
A. Shakiba, M.R. Hooshmandasl, Data volume reduction in covering approximation spaces with respect to twenty-two types of covering based rough sets, International Journal of Approximate Reasoning, Volume 75, August 2016, Pages 13-38, ISSN 0888-613X, http://dx.doi.org/10.1016/j.ijar.2016.04.002.
(http://www.sciencedirect.com/science/article/pii/S0888613X16300433)
اما در مقام مقایسه، کار من روی داده های سمبلیک است در صورتی که این مقاله با داده های عددی کار می کند.
یکی از رویه هایی که در برابر مسائل NP-سخت مورد استفاده قرار می گیرد، بیشتر برای شناخت دلیل و علت دشواری مسائل، Fixed Parameter Tractability یا FPT است. فعلا روی این موضوع تمرکز کرده ام، اما امروز مقاله ای جالب با عنوانی جالب تر دیدم!
Alexander Golovnev, Alexander S. Kulikov, and Ivan Mihajlin. 2016. Families with Infants: Speeding Up Algorithms for NP-Hard Problems Using FFT. ACM Trans. Algorithms 12, 3, Article 35 (April 2016), 17 pages. DOI=http://dx.doi.org/10.1145/2847419
این مقاله، الگوریتم هایی برای یافتن پاسخ دقیق سه مساله ی فروشنده ی دوره گرد (Traveling Salesman)، عدد رنگی (Chromatic Number) و شمارش تطابق های کامل (Counting Perfect Matchings) را با استفاده از تبدیل سریع فوریه ارائه می کند. ایده ی جالبی است و البته برای من جدید بود! نسخه ی منتشر شده ی این مقاله از اینجا قابل دریافت است. همچنین نسخه ی نویسندگان را می توانید از صفحه ی شخصی نویسنده و یا arXiv دریافت کنید.
برای آشنایی یا یادآوری با تبدیل فوریه (سریع) می توانید از BetterExplained یا Math@StackXchange استفاده کنید.