python - What are the factors, aside from RAM, limiting Numpy array size and can they be adjusted? -


मुझे एक सरणी बनाएं:

  a = np.ones ((21600,13 , 3,128), डीटीपी = कॉम्प्लेक्स)  

मुझे एक मेमोरी एरर मिलती है।

अगर मैं सरणी के आकार का आधा (एनबी मशीन):

  b = np.ones ((10800,13,3,128), dtype = complex)  

इसका आकार GB में है:

आदर्श रूप में, मैं (86400,13,3,128) आकार के साथ dtype = जटिल

क्या यह बिना किसी विभाजन के बिना करने का कोई तरीका है?

यदि आपकी लैपटॉप में 2 जीबी रैम और इसमें से 1.6 लेते हैं, फिर संभावना काफी अधिक है कि पर्याप्त मेमोरी नहीं है विंडोज़, आपका ब्राउज़र, मेल इत्यादि का एक गुच्छा पहले से ही होगा।

एक अतिरिक्त जटिलता के रूप में, numpy को एक एकल, निकटतम स्मृति के 1.6 जीबी ब्लॉक की आवश्यकता होगी।

यदि आपका आवेदन / उपयोग मामला अनुमति देता है, तो यह आपके डेटा को एक विरल मैट्रिक्स में स्टोर करने की कोशिश कर रहा हो सकता है। यह केवल गैर-शून्य तत्वों को संग्रहीत करता है - जो बहुत मेमोरी (या नहीं) को बचा सकता है:


Comments