Heim  >  Artikel  >  Backend-Entwicklung  >  Eine relativ speichersparende Python-Speicherlösung mit geringer Dichtematrix

Eine relativ speichersparende Python-Speicherlösung mit geringer Dichtematrix

大家讲道理
大家讲道理Original
2016-11-07 17:15:161206Durchsuche

Empfehlungssysteme müssen häufig Daten wie Benutzer-ID, Artikel-ID und Bewertung verarbeiten, bei denen es sich in der Mathematik eigentlich um spärliche Matrizen handelt, um dieses Problem zu lösen. scipy.sparse weist jedoch viele Probleme auf, die nicht für die Verwendung geeignet sind: 1 , kann das gleichzeitige schnelle Schneiden von Daten [i, ...], Daten [..., j], Daten [i, j] nicht unterstützen. Da die Daten im Speicher gespeichert sind, können große Datenmengen nicht gut unterstützt werden . bewältigen.

Um das schnelle Slicing von Daten[i, ...], Daten[..., j] zu unterstützen, müssen die Daten von i oder j gleichzeitig zentral gespeichert werden, um sie zu speichern Bei großen Datenmengen müssen die Daten auch teilweise auf der Festplatte abgelegt werden und der Speicher wird als Puffer verwendet. Die Lösung hier ist relativ einfach. Verwenden Sie ein Dict-ähnliches Ding, um Daten für ein bestimmtes i (z. B. 9527) zu speichern. In ähnlicher Weise werden die Daten für ein bestimmtes j (z. B. 3306) gespeichert. Alle seine Daten werden in dict['j3306'] gespeichert. Wenn Sie Daten [9527, ...] herausnehmen müssen, nehmen Sie einfach dict['i9527'] heraus, das ursprünglich ein Diktatobjekt ist , speichert den Wert, der einem bestimmten j entspricht. Um Speicherplatz zu sparen, speichern wir dieses Diktat in Form einer Binärzeichenfolge und geben den Code direkt ein:

'''
Sparse Matrix
'''
import struct
import numpy as np
import bsddb
from cStringIO import StringIO
  
class DictMatrix():
    def __init__(self, container = {}, dft = 0.0):
        self._data  = container
        self._dft   = dft
        self._nums  = 0
  
    def __setitem__(self, index, value):
        try:
            i, j = index
        except:
            raise IndexError('invalid index')
  
        ik = ('i%d' % i)
        # 为了节省内存,我们把j, value打包成字二进制字符串
        ib = struct.pack('if', j, value)
        jk = ('j%d' % j)
        jb = struct.pack('if', i, value)
  
        try:
            self._data[ik] += ib
        except:
            self._data[ik] = ib
        try:
            self._data[jk] += jb
        except:
            self._data[jk] = jb
        self._nums += 1
  
    def __getitem__(self, index):
        try:
            i, j = index
        except:
            raise IndexError('invalid index')
  
        if (isinstance(i, int)):
            ik = ('i%d' % i)
            if not self._data.has_key(ik): return self._dft
            ret = dict(np.fromstring(self._data[ik], dtype = 'i4,f4'))
            if (isinstance(j, int)): return ret.get(j, self._dft)
  
        if (isinstance(j, int)):
            jk = ('j%d' % j)
            if not self._data.has_key(jk): return self._dft
            ret = dict(np.fromstring(self._data[jk], dtype = 'i4,f4'))
  
        return ret
  
    def __len__(self):
        return self._nums
  
    def __iter__(self):
        pass
  
    '''
    从文件中生成matrix
    考虑到dbm读写的性能不如内存,我们做了一些缓存,每1000W次批量写入一次
    考虑到字符串拼接性能不太好,我们直接用StringIO来做拼接
    '''
    def from_file(self, fp, sep = 't'):
        cnt = 0
        cache = {}
        for l in fp:
            if 10000000 == cnt:
                self._flush(cache)
                cnt = 0
                cache = {}
            i, j, v = [float(i) for i in l.split(sep)]
  
            ik = ('i%d' % i)
            ib = struct.pack('if', j, v)
            jk = ('j%d' % j)
            jb = struct.pack('if', i, v)
  
            try:
                cache[ik].write(ib)
            except:
                cache[ik] = StringIO()
                cache[ik].write(ib)
  
            try:
                cache[jk].write(jb)
            except:
                cache[jk] = StringIO()
                cache[jk].write(jb)
  
            cnt += 1
            self._nums += 1
  
        self._flush(cache)
        return self._nums
  
    def _flush(self, cache):
        for k,v in cache.items():
            v.seek(0)
            s = v.read()
            try:
                self._data[k] += s
            except:
                self._data[k] = s
  
if __name__ == '__main__':
    db = bsddb.btopen(None, cachesize = 268435456)
    data = DictMatrix(db)
    data.from_file(open('/path/to/log.txt', 'r'), ',')

Testen Sie 4500-W-Bewertungsdaten (Ganzzahl, Ganzzahl, Gleitkommaformat), importieren Sie eine 922-MB-Textdatei, verwenden Sie Speicherdikt zum Speichern, der Aufbau ist in 12 Minuten abgeschlossen, verbrauchen Sie 1,2 GB Speicher und verwenden Sie den BDB-Speicher im Beispielcode, die Erstellung ist in 20 Minuten abgeschlossen. Er belegt etwa 300 bis 400 MB Speicher, nicht viel mehr als die Cachegröße. Der Datenlesetest dauert 1,4788 Sekunden Das Lesen eines Datenelements dauert etwa 1,5 ms.

import timeit
timeit.Timer('foo = __main__.data[9527, ...]', 'import __main__').timeit(number = 1000)
Ein weiterer Vorteil der Verwendung der Dict-Klasse zum Speichern von Daten besteht darin, dass Sie Memory Dict oder jede andere Form von DBM oder sogar das legendäre Tokyo Cabinet verwenden können....

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn