GurgenGulay commited on
Commit
226d8dd
·
verified ·
1 Parent(s): 1e6f8a9

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +11 -19
utils.py CHANGED
@@ -1,13 +1,16 @@
1
- from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
 
 
 
2
 
3
  def split_text_into_chunks(text, chunk_size=1000):
4
  """
5
  Metni belirli sayıda kelimelik parçalara böler.
6
  """
7
- words = text.split() # Metni kelimelere bölelim
8
  chunks = []
9
  for i in range(0, len(words), chunk_size):
10
- chunk = ' '.join(words[i:i+chunk_size]) # Belirli sayıda kelimelik parça oluştur
11
  chunks.append(chunk)
12
  return chunks
13
 
@@ -15,27 +18,16 @@ def generate_lesson_from_chunks(chunks):
15
  """
16
  Modeli her parça için çalıştırıp sonucu döndüren fonksiyon.
17
  """
18
- pipe = pipeline("text-generation", model="jondurbin/airoboros-gpt-3.5-turbo-100k-7b", device="cpu")
19
  generated_texts = []
20
  for chunk in chunks:
21
- generated_text = pipe(chunk, max_length=500)[0]['generated_text'] # Her parça için metin üret
22
  generated_texts.append(generated_text)
23
- return ' '.join(generated_texts) # Tüm parçaları birleştir
24
 
25
  def process_large_text(text):
26
  """
27
  Büyük metni işleyecek ve sonucu döndürecek fonksiyon.
28
  """
29
- chunks = split_text_into_chunks(text, chunk_size=1000) # Metni parçalara böl
30
- generated_text = generate_lesson_from_chunks(chunks) # Her parçayı işleyip birleştir
31
- return generated_text
32
-
33
- def create_pipeline(model_name: str):
34
- # Belirtilen model için bir text-generation pipeline'ı oluşturur.
35
-
36
- # Tokenizer ve model oluşturuluyor
37
- tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=True, legacy=False)
38
- model = AutoModelForCausalLM.from_pretrained(model_name)
39
-
40
- # Text generation pipeline'ı döndür
41
- return pipeline("text-generation", model=model, tokenizer=tokenizer, device="cpu")
 
1
+ from transformers import pipeline
2
+
3
+ # Pipeline'ı global olarak oluşturuyoruz
4
+ pipe = pipeline("text-generation", model="jondurbin/airoboros-gpt-3.5-turbo-100k-7b", device="cpu")
5
 
6
  def split_text_into_chunks(text, chunk_size=1000):
7
  """
8
  Metni belirli sayıda kelimelik parçalara böler.
9
  """
10
+ words = text.split()
11
  chunks = []
12
  for i in range(0, len(words), chunk_size):
13
+ chunk = ' '.join(words[i:i+chunk_size])
14
  chunks.append(chunk)
15
  return chunks
16
 
 
18
  """
19
  Modeli her parça için çalıştırıp sonucu döndüren fonksiyon.
20
  """
 
21
  generated_texts = []
22
  for chunk in chunks:
23
+ generated_text = pipe(chunk, max_length=500)[0]['generated_text']
24
  generated_texts.append(generated_text)
25
+ return ' '.join(generated_texts)
26
 
27
  def process_large_text(text):
28
  """
29
  Büyük metni işleyecek ve sonucu döndürecek fonksiyon.
30
  """
31
+ chunks = split_text_into_chunks(text, chunk_size=1000)
32
+ generated_text = generate_lesson_from_chunks(chunks)
33
+ return generated_text