Yazar "Mesut, Altan" seçeneğine göre listele
Listeleniyor 1 - 15 / 15
Sayfa Başına Sonuç
Sıralama seçenekleri
Öğe Dağıtık Nesne Yönetimi Mimarilerinden Corba ve Dcom Mimarilerinin Karşılaştırması(Trakya Üniversitesi, 2003) Mesut, Altan; Carus, AydınSon on yılda çıkan nesneye yönelik programlama ve dağıtık sistem teknolojileri modern yazılımları büyük ölçüde etkiledi. RPC (Remote Procedure Call - Uzak Prosedür Çağrısı) gibi eski nesil istemci/sunucu mimarileri nesneye yönelik bir modele sahip değildirler. Bu mimaride istemci, sunucuya nasıl ulaşması gerektiğini ve sunucunun yerini bilmek, ve kodu eklenecek her yeni servis için değiştirilmek zorundadır. istemci/sunucu sistem teknolojisinin gelişiminin bir sonraki basamağı, dağıtık sistem ile nesneye yönelik programlama teknolojilerinin birleşimi olan dağıtık nesne yönetimi sistemleridir. Dağıtık sistemlerin gerçek faydası, ancak karmaşık uygulamaların yeniden kullanılabilir yazılım bileşenleri kullanılarak meydana getirilmesine izin veren, dağıtık nesne yönetimi sistemlerinin kullanılması ile mümkün olacaktır. Bu çalışmada dağıtık nesne yönetimi mimaril erinden COM/DCOM ve CORBA incelenmiştir.Öğe Dağıtık nesne yönetimi mimarilerinin incelenmesi(Trakya Üniversitesi, 2002) Mesut, Altan; Carus, AydınÖZET Son on yılda çıkan nesneye yönelik programlama ve dağıtık sistem teknolojileri modern yazılımları büyük ölçüde etkiledi. RPC (Remote Procedure Call - Uzak Prosedür Çağrısı) gibi eski nesil istemci/sunucu mimarileri nesneye yönelik bir modele sahip değildirler. Bu mimaride istemci, sunucuya nasıl ulaşması gerektiğini ve sunucunun yerini bilmek, ve kodu eklenecek her yeni servis için değiştirilmek zorundadır. İstemci/sunucu sistem teknolojisinin gelişiminin bir sonraki basamağı, dağıtık sistem ile nesneye yönelik programlama teknolojilerinin birleşimi olan dağıtık nesne yönetimi sistemleridir. Dağıtık sistemlerin gerçek faydası, ancak karmaşık uygulamaların yeniden kullanılabilir yazılım bileşenleri kullanılarak meydana getirilmesine izin veren, dağıtık nesne yönetimi sistemlerinin kullanılması ile mümkün olacaktır. Bu çalışmanın amacı, değişik zamanlarda, farklı platformlar (işletim sistemleri & donanımlar) ve farklı programlama dilleri ile, birbirinden bağımsız olarak tasarlanmış yazılım bileşenlerinin, bir bütün olarak çalışabilmesi için kullanılan dağıtık nesne yönetimi mimarilerinden ÇORBA (Common Object Request Broker Architecture - Genel Nesne îstek Aracı Mimarisi) ve DCOM (Distributed Component Object Model - Dağıtık Bileşen Nesne Modeli) mimarilerinin incelenmesi, aralarındaki benzerlikler ve farklılıkların belirlenmesidir. Tezin giriş bölümünde, monolitik sistemlerden istemci/sunucu mimarilerine, ve daha sonrasında dağıtık mimarilere kadar olan gelişim kısaca açıklanmıştır. İkinci ve üçüncü bölümlerde, ÇORBA ve COM/DCOM mimarileri incelenmiş ve dördüncü bölümde bu iki mimarinin yapısal olarak karşılaştırılması, temel programlama mimarisi, erişim mimarisi ve tel mimarisi olmak üzere üç ayrı katmanda, iki boyutlu tamsayılar üzerinde çalışan Grid adında bir uygulama kullanılarak gerçekleştirilmiştir. Tezin son bölümünde karşılaştırmanın özeti yer almaktadır.Öğe DERİN ÖĞRENME KULLANILARAK OPTİMUM JPEG KALİTE FAKTÖRÜNÜN BELİRLENMESİ(2020) Öztürk, Emir; Mesut, AltanGörüntü verisinde sıkıştırma algoritmalarının kullanılması bir gereklilik halinegelmiştir. En çok kullanılan görüntü sıkıştırma algoritmalarından biri olan JPEG,görüntü üzerinde kayıplı bir sıkıştırma gerçekleştirmekte ve verilen kalitefaktörüne göre bu kayıp değişmektedir. Düşük kalite faktörlerinde dosya boyutuküçülmekte fakat bozulma gözle görülür hale gelmektedir. Yüksek kalitefaktörlerinde ise kalite artmakta fakat dosya boyutundan edilen sıkıştırma karıazalmaktadır. Bu sebeple hem görüntü kalitesini korumak hem de yer kazancısağlamak için dosya boyutu ve görüntü kalitesi arasındaki dengenin sağlanmasıfaydalı olacaktır. Bu çalışmanın amacı, dosya boyutu ve görüntüdeki bozulmanınarasındaki oranın en iyi (optimum) olduğu kalite faktörünü derin öğrenmeyöntemleri kullanarak belirlemektir. Yapılan çalışmada önerilen bir veri çıkarmayöntemi yoğun sinir ağları (dense neural networks) ile eğitilmiş ve yönteminbaşarısı evrişimsel sinir ağları ile yapılan denemelerle karşılaştırılmıştır.Görüntüdeki bozulmanın hesaplanmasında SSIM (Structural Similarity Index)kullanılmıştır. Elde edilen sonuçlarda önerilen yöntem kalite faktörününbelirlenmesinde CNN kullanılmasına göre %9.36 daha fazla doğruluk oranına sahipolmuştur.Öğe Entropy Based Estimation Algorithm Using Split Images to Increase Compression Ratio(Trakya Üniversitesi, 2017) Öztürk, Emir; Mesut, AltanCompressingimage files after splitting them into certain number of parts can increasecompression ratio. Acquired compression ratio can also be increased bycompressing each part of the image using different algorithms, because each algorithmgives different compression ratios on different complexity values. In thisstudy, statistical compression results and measured complexity values of splitimages are obtained, and an estimation algorithm based on these results ispresented. Our algorithm splits images into 16 parts, compresses each part withdifferent algorithm and joins the images after compression. Compression resultsshow that using our estimation algorithm acquires higher compression ratiosover whole image compression techniques with ratio of 5% on average and 25% onmaximum.Öğe File Size Estimation in JPEG XR Standard Using Machine Learning(IEEE, 2016) Ozturk, Emir; Mesut, AltanAlthough JPEG XR was developed later than JPEG2000, it has not the ability to compress to a certain size unlike JPEG2000. In this study, a machine learning algorithm is proposed in order to bring this feature to JPEG XR method. The results show that, the file size estimation algorithm gives accurate results under the circumstances of giving specific range to compression ratio.Öğe ISSDC DIGRAM CODING BASED LOSSLESS DATA COMPRESSION ALGORITHM(Slovak Acad Sciences Inst Informatics, 2010) Mesut, Altan; Carus, AydinIn this paper, a new lossless data compression method that is based on digram coding is introduced This data compression method uses semi-static dictionaries All of the used characters and most frequently used two character blocks (digrams) in the source are found and inserted into a dictionary in the first pass, compression is performed in the second pass This two-pass structure is repeated several times and in every iteration particular number of elements is inserted in the dictionary until the dictionary is filled This algorithm (ISSDC Iterative Semi-Static Digram Coding) also includes some mechanisms that can decide about total number of iterations and dictionary size whenever these values are not given by the user Our experiments show that ISSDC is better than LZW/GIF and BPE in compression ratio It is worse than DEFLATE in compression of text and binary data, but better than PNG (which uses DEFLATE compression) in lossless compression of simple imagesÖğe Kümeleme Performansını Ölçmek için Yeni Bir Yöntem ve Metin Kümeleme için Değerlendirmesi(2021) Aslanyürek, Murat; Mesut, AltanBu çalışmada kümeleme performansını ölçmek için kullanılabilecek alternatif bir yöntem önerilmiştir. Önerilen yöntemin tutarlılığını test etmek için, Wikipedia makale özetlerinden oluşan iki farklı veri kümesinde k-Means, k-Medoids ve CLARANS yöntemleri ile kümelemeler yapılmış ve hem önerdiğimiz yöntem hem de mevcut yöntemler ile performans ölçümleri hesaplanmıştır. Sadece İngilizce özetlerin olduğu ilk veri kümesi farklı sayıda kümelere ayrılarak test edilmiştir. Özetlerin içeriği hakkında önceden bilgi sahibi olunmadığı için ne kadar doğru kümelendiğini değerlendirmek için dahili yöntemler olan Silhouette, Calinski-Harabasz ve Davies-Bouldin indeksleri kullanılmıştır. 6 farklı dile ait Wikipedia özetlerini içeren ikinci veri kümesi ise özetlerin dillerine göre sınıflanmış olması için kümeleme yöntemleri ile 6 kümeye ayrılmıştır. Veri kümesindeki metinlerin hangi dile ait olduğu önceden bilindiği için kümelemenin başarısı hem dahili hem de harici yöntemler ile ölçülebilmiştir. Veri sıkıştırma algoritmalarının birbirine benzer metinlerin olduğu bir dosyayı, birbirinden farklı metinlerin olduğu dosyaya göre daha iyi sıkıştırdığı bilindiğinden, sıkışma oranının alternatif bir değerlendirme ölçütü olarak kullanılabileceği önerilmiştir. Silhouette, Calinski-Harabasz ve Davies-Bouldin indeksleri gibi dahili yöntemlere göre çok daha hızlı hesaplanabilen önerilen Sıkıştırma Oranı İndeksi (SOİ), 4 farklı sıkıştırma algoritması ile test edilmiş ve ikinci veri kümesinde kullanılan 9 harici yöntemle de aynı sonuçları vermiştir.Öğe A method to improve full-text search performance of MongoDB MongoDB'nin tam metin arama performans?n? iyile?tirme y?ntemi(Pamukkale Univ, 2022) Mesut, Altan; Ozturk, EmirB-Tree based text indexes used in MongoDB are slow compared to different structures such as inverted indexes. In this study, it has been shown that the full-text search speed can be increased significantly by indexing a structure in which each different word in the text is included only once. The Multi-Stream Word-Based Compression Algorithm (MWCA), developed in our previous work, stores word dictionaries and data in different streams. While adding the documents to a MongoDB collection, they were encoded with MWCA and separated into six different streams. Each stream was stored in a different field, and three of them containing unique words were used when creating a text index. In this way, the index could be created in a shorter time and took up less space. It was also seen that Snappy and Zlib block compression methods used by MongoDB reached higher compression ratios on data encoded with MWCA. Search tests on text indexes created on collections using different compression options shows that our method provides 19 to 146 times speed increase and 34% to 40% less memory usage. Tests on regex searches that do not use the text index also shows that the MWCA model provides 7 to 13 times speed increase and 29% to 34% less memory usage.Öğe Multi-Stream Word-Based Compression Algorithm(IEEE, 2017) Ozturk, Emir; Mesut, Altan; Diri, BanuIn this article, we present a novel word-based lossless compression algorithm for text files which uses a semi-static model. We named our algorithm as Multi-stream Word-based Compression Algorithm (MWCA), because it stores the compressed forms of the words in three individual streams depending on their frequencies in the text. It also stores two dictionaries and a bit vector as a side information. In our experiments MWCA obtains compression ratio over 3,23 bpc on average and 2,88 bpc on files larger than 50 MB. If a variable length encoder like Huffman Coding is used after MWCA, given ratios will reduce to 2,63 and 2,44 bpc respectively. With the advantage of its multi-stream structure MWCA could become a good solution especially for storing and searching big text data.Öğe Multi-stream word-based compression algorithm for compressed text search(Springer Heidelberg, 2018) Ozturk, Emir; Mesut, Altan; Diri, BanuIn this article, we present a novel word-based lossless compression algorithm for text files using a semi-static model. We named this method the Multi-stream word-based compression algorithm (MWCA)' because it stores the compressed forms of the words in three individual streams depending on their frequencies in the text and stores two dictionaries and a bit vector as side information. In our experiments, MWCA produces a compression ratio of 3.23 bpc on average and 2.88 bpc for files greater than 50 MB; if a variable length encoder such as Huffman coding is used after MWCA, the given ratios are reduced to 2.65 and 2.44 bpc, respectively. MWCA supports exact word matching without decompression, and its multi-stream approach reduces the search time with respect to single-stream algorithms. Additionally, the MWCA multi-stream structure supplies the reduction in network load by requesting only the necessary streams from the database. With the advantage of its fast compressed search feature and multi-stream structure, we believe that MWCA is a good solution, especially for storing and searching big text data.Öğe A new compression algorithm for fast text search(Tubitak Scientific & Technological Research Council Turkey, 2016) Carus, Aydin; Mesut, AltanWe propose a new compression algorithm that compresses plain texts by using a dictionary-based model and a compressed string-matching approach that can be used with the compressed texts produced by this algorithm. The compression algorithm (CAFTS) can reduce the size of the texts to approximately 41% of their original sizes. The presented compressed string matching approach (SoCAFTS), which can be used with any of the known pattern matching algorithms, is compared with a powerful compressed string matching algorithm (ETDC) and a compressed string-matching tool (Lzgrep). Although the search speed of ETDC is very good in short patterns, it can only search for exact words and its compression performance differs from one natural language to another because of its word-based structure. Our experimental results show that SoCAFTS is a good solution when it is necessary to search for long patterns in a compressed document.Öğe A New Method for Short Text Compression(IEEE-Inst Electrical Electronics Engineers Inc, 2023) Aslanyurek, Murat; Mesut, AltanShort texts cannot be compressed effectively with general-purpose compression methods. Methods developed to compress short texts often use static dictionaries. In order to achieve high compression ratios, using a static dictionary suitable for the text to be compressed is an important problem that needs to be solved. In this study, a method called WSDC (Word-based Static Dictionary Compression), which can compress short texts at a high ratio, and a model that uses iterative clustering to create static dictionaries used in this method are proposed. The number of static dictionaries to be created can vary by running the k-Means clustering algorithm iteratively according to some rules. A method called DSWF (Dictionary Selection by Word Frequency) is also presented to determine which of the created dictionaries can compress the source text at the best ratio. Wikipedia article abstracts consisting of 6 different languages were used as the dataset in the experiments. The developed WSDC method is compared with both general-purpose compression methods (Gzip, Bzip2, PPMd, Brotli and Zstd) and special methods used for compression of short texts (shoco, b64pack and smaz). According to the test results, although WSDC is slower than some other methods, it achieves the best compression ratios for short texts smaller than 200 bytes and better than other methods except Zstd for short texts smaller than 1000 bytes.Öğe A new word-based compression model allowing compressed pattern matching(Tubitak Scientific & Technological Research Council Turkey, 2017) Bulus, Halil Nusret; Carus, Aydin; Mesut, AltanIn this study a new semistatic data compression model that has a fast coding process and that allows compressed pattern matching is introduced. The name of the proposed model is chosen as tagged word-based compression algorithm (TWBCA) since it has a word-based coding and word-based compressed matching algorithm. The model has two phases. In the first phase a dictionary is constructed by adding a phrase, paying attention to word boundaries, and in the second phase compression is done by using codewords of phrases in this dictionary. The first byte of the codeword determines whether the word is compressed or not. By paying attention to this rule, the CPM process can be conducted as word based. In addition, the proposed method makes it possible to also search for the group of consecutively compressed words. Any of the previous pattern matching algorithms can be chosen to use in compressed pattern matching as a black box. The duration of the CPM process is always less than the duration of the same process on the texts coded by Gzip tool. While matching longer patterns, compressed pattern matching takes more time on the texts coded by compress and end-tagged dense code (ETDC). However, searching shorter patterns takes less time on texts coded by our approach than the texts compressed with compress. Besides this, the compression ratio of our algorithm has a better performance against ETDC only on a file that has been written in Turkish. The compression performance of TWBCA is stable and does not vary over 6% on different text files.Öğe Performance Comparison of JPEG, JPEG2000 & JPEG XR Image Compression Standards(IEEE, 2016) Ozturk, Emir; Mesut, Altan; Carus, AydinIn this study, the performances of JPEG (the most widely used lossy image compression standard until it was published in 1992), JPEG2000 (designed to provide superior image quality at low bit rates) and JPEG XR (aimed to reach the speed of JPEG and the quality of JPEG2000) are evaluated with an application developed in C# language which is able to use different codecs. The results show that recently developed JPEG standard (JPEG XR) is able to compress images with the same quality as JPEG2000, but not the same speed as JPEG.Öğe Veri sıkıştırmada yeni yöntemler(Trakya Üniversitesi Fen Bilimleri Enstitüsü, 2006) Mesut, Altan; Carus, AydınBu tezin amacı, günümüzde yaygın olarak kullanılmakta olan kayıplı ve kayıpsız veri sıkıştırma yöntemlerinin incelenmesi, eskiden geliştirilmiş olan yöntemler ile yakın zamanda geliştirilmiş olan yöntemler arasındaki farklılıkların belirlenmesi ve yeni yöntemlerin kendisinden önceki yöntemleri ne yönde geliştirdiğinin araştırılmasıdır. Tezde yapılan diğer bir çalışma ise, var olan sözlük tabanlı yöntemlere alternatif olabilecek yeni bir yöntemin geliştirilmesi üzerine olmuştur. Kayıplı ve kayıpsız veri sıkıştırma yöntemleri, çalışma biçimlerine ve uygulama alanlarına göre sınıflandırılarak farklı bölümlerde anlatılmışlardır. Tezin ikinci ve üçüncü bölümlerinde olasılık tabanlı kayıpsız sıkıştırma ve sözlük tabanlı kayıpsız sıkıştırma yöntemleri anlatılmış, üçüncü bölümün sonunda kendi geliştirdiğimiz yaklaşım da dâhil olmak üzere tüm kayıpsız sıkıştırma yöntemleri, sıkıştırma testine tâbi tutularak karşılaştırılmıştır. Ses, görüntü ve hareketli görüntü sıkıştırma yöntemleri, sırasıyla tezin dördüncü, beşinci ve altıncı bölümlerinde açıklanmışlardır. Bu yöntemlerin özellikle kayıplı olanları birçok sıkıştırma algoritmasının bir arada kullanılması ile oluşturulmuş karmaşık tekniklerdir. Bu yöntemler açıklanırken detaya girilmeden, yöntemin işleyişi ile ilgili genel bilgi verilmiştir. Her bölümün sonunda, hangi yöntemlerin hangi tip veriler üzerinde daha etkili olduğunun gösterilmesi amacıyla gerçekleştirdiğimiz karşılaştırma sonuçları yer almaktadır. Beşinci bölümde yer alan kayıpsız görüntü sıkıştırma yöntemlerinin karşılaştırılmasına geliştirdiğimiz algoritma da dâhil edilmiş ve karmaşıklığı az olan görüntü dosyalarında iyi sonuçlar verdiği görülmüştür.