Előadások

    NoSQL alternatívák "big data" feladatok megoldásához - Adattárház Fórum 2012

    Sidló Csaba
    2012-06-12 16:30

    Big Data feladatoknál a fő problémát az adat mérete maga jelenti. Az előadásban két ilyen feladatot ismertetünk, ahol osztott architektúrákkal, jól skálázódó NoSQL eszközökkel és gondosan tervezett algoritmusokkal sikerült jól működő alkalmazásokhoz jutni. Átnézzük egyrészt nagyméretű ügyfél-adattörzsek különböző osztott feldolgozási paradigmák szerinti adattisztításának, duplikátummentesítésének tapasztalatait, másrészt pedig egy webes archívum építésének és jól skálázódó spam-mentesítésének tanulságait.

    "Big Data": amikor a probléma az adat mérete maga

    Benczúr András
    2012-05-16 14:00

    Benczúr András Big Data előadása az MTA Matematikai Tudományok Osztályának tudományos ülésén 2012 május 16-án.

    Képi klasszifikáció alapjai

    Daróczy Bálint
    2011-11-24 10:15

    A következő szemináriumon a képi klasszifikáció alapjairól szeretnék
    beszélni, áttekintő jelleggel:
    1. Képfeldolgozás -> alacsony szintű leírók: SIFT, LBP, HOG stb.
    2. Modellezés -> generatív modellek: K-means, GMM
    3. Magas-szintű leírók: Vector Quantization, Super-Vector, Fisher
    vector változatok
    4. Egyéb modalitások: szöveg és detekció
    5. Tanítás: Multiple Kernel és Multi-class learning

    VisWeek élménybeszámoló

    Göbölös-Szabó Julianna
    2011-11-10 10:15

    A csütörtöki szemináriumon élménybeszámolót tartok az idei VisWeek konferenciáról. Mesélek a VAST Challenge Workshopról: tapasztalatokról és hogy mi várható a jövő évi versenyen. Kiemelek néhány általam érdekesnek talált cikket, ötletet a VAST ( Visual Analytics Science and Technology) és InfoVis témákból.

    VLDB élménybeszámoló

    Sidló Csaba
    2011-09-29 10:15

    Az eheti szemináriumon élménybeszámolót tartok az idei VLDB (Very Large Databases) konferenciáról, aminek QDB (Quality in Databases) workshop-ján szerepeltünk előadással. Kiemelek néhány általam érdekesnek tűnő trendet, illetve kitérek néhány érdekesebb cikkre röviden, beleértve a sajátunkat is azonosságfeloldás témával.

    Link analízis gyorstalpaló

    Benczúr András
    2011-09-22 10:15
    • PageRank és személyre szabott PageRank.
      - Kapcsolat véletlen sétákkal
      - Elemi bizonyítás a konvergenciasebességre
      - Út-ujjlenyomatok
    • Simrank és hasonlóságmértékek
    • HITS
      - Mátrixok szinguláris felbontása
      - Geometriai jelentés, ellipszoid
      - Spektrál gráf vetítés

    Időt az időért időben

    Bánfi Norbert
    2011-09-08 11:00

    Napirend: Az Atrium hatékony használata, mindenféle kis finomsággal, hogy átlátható, logikus és hatékony legyen a feladatkezelés az intézeten belül.

    Az előadás: http://prezi.com/metpjvfc94hb/atrium/

    Lioma, Christina Amalia: Part of Speech n-Grams for Information Retrieval

    Nemeskey Dávid
    2011-05-12 10:15

    A szöveges keresésben ma használt módszerek többsége a bag-of-words modellen alapul, azaz pusztán a szavak dokumentumokban előfordulásának számát veszi figyelembe, azok nyelvi tulajdonságai, szerepe kiaknázatlan marad. Az előadáson tárgyalt dolgozat azt járja körül, hogy miként lehet a nem-lexikális statisztikákat, jelen esetben a szófajokat is figyelembe venni a rangsorolás során.

    Deep Learning

    Kocsis Levente
    2011-04-14 10:15

    Sok területen szembesülünk olyan komplex függvényekkel melyek könyebben leírhatóak sokrétegű modellekkel. Noha többrétegű neurális hálók alkalmasak lehetnének ilyen esetekben, a hagyományos szupervizált tanuló algoritmusokkal leggyakrabban nagyon gyenge lokális optimumokban akadunk el. Természetes, ha jobb lokális optimumok közeléből indítjuk a tanulást akkor a tanulóalgoritmusoknak könnyebb feladatuk marad. E célból olyan nem szupervizált módszereket vizsgálunk melyek képesek a neurális hálók súlyait inicializálni, kinyerve egyben a tanuló adatban meglevő struktúrát.

    Gyakori elemhalmazok tömör reprezentaciója

    Göbölös-Szabó Julianna
    2011-04-07 10:15

    A gyakori elemhalmazok kinyerésekor sokszor szembesülünk azzal a problémával, hogy a felhasznaló számára feldolgozhatatlan mennyisegű elemhalmazt kapunk válaszként. Célunk, hogy ezeket tömörítve könnyen áttekinthető halmazgyűjteményt kapjunk, ami ugyanakkor megőrzi az eredeti válasz jellemzőit is. Erre a feladatra nézunk három különböző modellt:
    1, Pusztán kombinatorikus megközelítéssel átfedő klasztereket képezhetünk a gyakori termékhalmazokból.
    2, Naiv valószínűségi modellt alkalmazva fix számú klaszterre oszthatjuk a gyakori elemhalmazok terét.

    Oldalak