Probiert die Knöpfe der einfachheit halber größer zu machen, eine weitere exceptioncatch in passiv2activ implementiert
This commit is contained in:
parent
3b66a89dc2
commit
ec2e973427
27 changed files with 628 additions and 480 deletions
|
@ -248,18 +248,10 @@
|
|||
"scrolled": true
|
||||
},
|
||||
"outputs": [
|
||||
{
|
||||
"name": "stdout",
|
||||
"output_type": "stream",
|
||||
"text": [
|
||||
"dumping the session\n",
|
||||
"done\n"
|
||||
]
|
||||
},
|
||||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "74fc341e0a474605b1f95c3e4e35d0b2",
|
||||
"model_id": "8550b5ce616f4cd89a39ee2a05c5da15",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -453,7 +445,7 @@
|
|||
"#display(OutTextFeld)\n",
|
||||
"items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n",
|
||||
"#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n",
|
||||
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n"
|
||||
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n"
|
||||
]
|
||||
},
|
||||
{
|
||||
|
@ -476,7 +468,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "082cb6fb58aa41cc82d918d2a056258d",
|
||||
"model_id": "fbf6f63cc46248088133806a354dfa01",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -676,7 +668,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "dad4baed09a5407194ae2daf153e8f43",
|
||||
"model_id": "79e1775235dc46c0a6c14a0a261b1518",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -716,7 +708,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "4bff927b0a404ed0b909db2bd766ac65",
|
||||
"model_id": "d1ee481103c54bde9e7ee8eb7ca0a76c",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -838,7 +830,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "b6053b85bdcd4446b010b5fb872dc52c",
|
||||
"model_id": "c70e059820e44adb92a4b4532ebeb959",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -864,7 +856,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4",
|
||||
"model_id": "04c03c250bae489895ff8b738c3ce30e",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
|
|
@ -199,461 +199,467 @@ class Passiv2Aktiv(object):
|
|||
endsentences = []
|
||||
sentencecount = 0
|
||||
for sentence in sentences:
|
||||
try:
|
||||
sentencecount += 1
|
||||
#print('processing sentence', sentencecount)
|
||||
|
||||
sentencecount += 1
|
||||
#print('processing sentence', sentencecount)
|
||||
doc = self.nlp(' '.join(sentence))
|
||||
|
||||
doc = self.nlp(' '.join(sentence))
|
||||
verbs_of_sentence = []
|
||||
wordindex_to_replace = []
|
||||
count = 0
|
||||
subjectofsentence = []
|
||||
subjectindex = []
|
||||
erindex = []
|
||||
Erindex = []
|
||||
undindex = []
|
||||
|
||||
verbs_of_sentence = []
|
||||
wordindex_to_replace = []
|
||||
count = 0
|
||||
subjectofsentence = []
|
||||
subjectindex = []
|
||||
erindex = []
|
||||
Erindex = []
|
||||
undindex = []
|
||||
for word in doc:
|
||||
|
||||
for word in doc:
|
||||
count += 1
|
||||
|
||||
count += 1
|
||||
#print(word.text)
|
||||
#print(word.dep_)
|
||||
|
||||
#print(word.text)
|
||||
#print(word.dep_)
|
||||
if word.dep_ == 'sb':
|
||||
|
||||
if word.dep_ == 'sb':
|
||||
#print('oi')
|
||||
subjectofsentence.append(word.text)
|
||||
subjectindex.append(count)
|
||||
|
||||
#print('oi')
|
||||
subjectofsentence.append(word.text)
|
||||
subjectindex.append(count)
|
||||
if word.text == 'er':
|
||||
erindex.append(count)
|
||||
if word.text == 'Er':
|
||||
Erindex.append(count)
|
||||
if word.text == 'und':
|
||||
undindex.append(count)
|
||||
|
||||
if word.text == 'er':
|
||||
erindex.append(count)
|
||||
if word.text == 'Er':
|
||||
Erindex.append(count)
|
||||
if word.text == 'und':
|
||||
undindex.append(count)
|
||||
|
||||
if word.tag_[0] == 'V':
|
||||
verbs_of_sentence.append(word.text)
|
||||
wordindex_to_replace.append(count)
|
||||
if word.tag_[0] == 'V':
|
||||
verbs_of_sentence.append(word.text)
|
||||
wordindex_to_replace.append(count)
|
||||
|
||||
|
||||
if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'):
|
||||
verbs_of_sentence[0] = 'bliblablubdudidu'
|
||||
if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'):
|
||||
verbs_of_sentence[0] = 'bliblablubdudidu'
|
||||
|
||||
verbs_of_sentence_string = ' '.join(verbs_of_sentence)
|
||||
verbs_of_sentence_string = ' '.join(verbs_of_sentence)
|
||||
|
||||
|
||||
|
||||
length_verbs_of_sentence_string = len(verbs_of_sentence_string)
|
||||
length_verbs_of_sentence_string = len(verbs_of_sentence_string)
|
||||
|
||||
verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string)
|
||||
#print(verbs_of_sentence_string)
|
||||
bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
|
||||
verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string)
|
||||
#print(verbs_of_sentence_string)
|
||||
bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
|
||||
|
||||
bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
|
||||
bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
|
||||
|
||||
|
||||
#print('verbs of sentence string', verbs_of_sentence_string)
|
||||
#print(len(verbs_of_sentence))
|
||||
#print(matchindexVorgangspassiv1)
|
||||
#print(matchindexZustandspassiv1)
|
||||
#print('verbs of sentence string', verbs_of_sentence_string)
|
||||
#print(len(verbs_of_sentence))
|
||||
#print(matchindexVorgangspassiv1)
|
||||
#print(matchindexZustandspassiv1)
|
||||
|
||||
|
||||
vorgangORnot = 0
|
||||
zustandORnot = 0
|
||||
if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]:
|
||||
workindex = matchindexVorgangspassiv1[0]
|
||||
vorgangORnot = 1
|
||||
vorgangORnot = 0
|
||||
zustandORnot = 0
|
||||
if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]:
|
||||
workindex = matchindexVorgangspassiv1[0]
|
||||
vorgangORnot = 1
|
||||
|
||||
if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]:
|
||||
workindex = matchindexZustandspassiv1[0]
|
||||
zustandORnot = 1
|
||||
if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]:
|
||||
workindex = matchindexZustandspassiv1[0]
|
||||
zustandORnot = 1
|
||||
|
||||
|
||||
#print(workindex)
|
||||
#print(workindex)
|
||||
|
||||
#print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]])
|
||||
#print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]])
|
||||
#print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]])
|
||||
#print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]])
|
||||
#print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]])
|
||||
#print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]])
|
||||
|
||||
formToReplace = []
|
||||
formToReplace = []
|
||||
|
||||
if vorgangORnot == 1:
|
||||
completeform = self.hkldbVorgangspassiv_All[workindex]
|
||||
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
|
||||
vorgangORnot = 0
|
||||
if vorgangORnot == 1:
|
||||
completeform = self.hkldbVorgangspassiv_All[workindex]
|
||||
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
|
||||
vorgangORnot = 0
|
||||
|
||||
if vorgangORnot == 1:
|
||||
completeform = self.hkldbVorgangspassiv_All[workindex]
|
||||
formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:]
|
||||
if vorgangORnot == 1:
|
||||
completeform = self.hkldbVorgangspassiv_All[workindex]
|
||||
formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:]
|
||||
|
||||
|
||||
#print('formtoreplace vorgang',formToReplace)
|
||||
#print('complete form', completeform)
|
||||
#print('formtoreplace vorgang',formToReplace)
|
||||
#print('complete form', completeform)
|
||||
|
||||
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
|
||||
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
|
||||
|
||||
#print(formToReplace)
|
||||
#print(formToReplace)
|
||||
|
||||
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
|
||||
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
|
||||
|
||||
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
|
||||
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
|
||||
|
||||
#print(thrdPersonAktiv)
|
||||
#print(thrdPersonAktiv)
|
||||
|
||||
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
|
||||
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
|
||||
|
||||
dalist = verbs_of_sentence_string.split()[:-1]
|
||||
dalist = verbs_of_sentence_string.split()[:-1]
|
||||
|
||||
for verb in dalist:
|
||||
#print(sentence)
|
||||
#print(index)
|
||||
for verb in dalist:
|
||||
#print(sentence)
|
||||
#print(index)
|
||||
|
||||
sentence.remove(verb)
|
||||
sentence.remove(verb)
|
||||
|
||||
thereisasubjectEr = 0
|
||||
thereisasubjectEr = 0
|
||||
|
||||
for index in subjectindex:
|
||||
for ind in undindex:
|
||||
if index - 1 == ind:
|
||||
if index - 2 == ('er' or 'Er'):
|
||||
thereisasubjectEr = 1
|
||||
if index + 1 == ind:
|
||||
if index + 2 == 'er' or index + 2 == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
#print('subjectofsentence', subjectofsentence)
|
||||
thereisasubjectich = 0
|
||||
thereisasubjectdu = 0
|
||||
thereisasubjectihr = 0
|
||||
thereisasubjectwir = 0
|
||||
for word in subjectofsentence:
|
||||
if word == 'er' or word == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
if word == 'ich':
|
||||
thereisasubjectich = 1
|
||||
if word == 'du':
|
||||
thereisasubjectdu = 1
|
||||
if word == 'ihr':
|
||||
thereisasubjectihr = 1
|
||||
if word == 'wir':
|
||||
thereisasubjectwir = 1
|
||||
#print('there is a subjecter', thereisasubjectEr)
|
||||
if thereisasubjectEr == 1:
|
||||
try:
|
||||
sentence.remove('Er')
|
||||
except:
|
||||
sentence.remove('er')
|
||||
sentence.append('ihn')
|
||||
if thereisasubjectich == 1:
|
||||
sentence.remove('ich')
|
||||
sentence.append('mich')
|
||||
if thereisasubjectdu == 1:
|
||||
sentence.remove('du')
|
||||
sentence.append('dich')
|
||||
if thereisasubjectihr == 1:
|
||||
sentence.remove('ihr')
|
||||
sentence.append('euch')
|
||||
if thereisasubjectwir == 1:
|
||||
sentence.remove('wir')
|
||||
sentence.append('uns')
|
||||
for index in subjectindex:
|
||||
for ind in undindex:
|
||||
if index - 1 == ind:
|
||||
if index - 2 == ('er' or 'Er'):
|
||||
thereisasubjectEr = 1
|
||||
if index + 1 == ind:
|
||||
if index + 2 == 'er' or index + 2 == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
#print('subjectofsentence', subjectofsentence)
|
||||
thereisasubjectich = 0
|
||||
thereisasubjectdu = 0
|
||||
thereisasubjectihr = 0
|
||||
thereisasubjectwir = 0
|
||||
for word in subjectofsentence:
|
||||
if word == 'er' or word == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
if word == 'ich':
|
||||
thereisasubjectich = 1
|
||||
if word == 'du':
|
||||
thereisasubjectdu = 1
|
||||
if word == 'ihr':
|
||||
thereisasubjectihr = 1
|
||||
if word == 'wir':
|
||||
thereisasubjectwir = 1
|
||||
#print('there is a subjecter', thereisasubjectEr)
|
||||
if thereisasubjectEr == 1:
|
||||
try:
|
||||
sentence.remove('Er')
|
||||
except:
|
||||
sentence.remove('er')
|
||||
sentence.append('ihn')
|
||||
if thereisasubjectich == 1:
|
||||
sentence.remove('ich')
|
||||
sentence.append('mich')
|
||||
if thereisasubjectdu == 1:
|
||||
sentence.remove('du')
|
||||
sentence.append('dich')
|
||||
if thereisasubjectihr == 1:
|
||||
sentence.remove('ihr')
|
||||
sentence.append('euch')
|
||||
if thereisasubjectwir == 1:
|
||||
sentence.remove('wir')
|
||||
sentence.append('uns')
|
||||
|
||||
sentence.append(thrdPersonAktiv)
|
||||
#print('sentence in the vorgangornot', sentence)
|
||||
jemandornot = 1
|
||||
wordstodelete = []
|
||||
for n in range(len(sentence) - 1):
|
||||
if sentence[n] == 'von':
|
||||
if sentence[n + 1] == 'ihr':
|
||||
sentence[n + 1] = 'sie'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'ihm':
|
||||
sentence[n + 1] = 'er'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
import spacy
|
||||
nlp = spacy.load('de_core_news_sm')
|
||||
token1 = nlp(sentence[n - 1])
|
||||
token2 = nlp(sentence[n + 1])
|
||||
for word in token1:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
for word in token2:
|
||||
if word.tag_ == 'NN' or word.tag_ == 'NE':
|
||||
sentence.append(thrdPersonAktiv)
|
||||
#print('sentence in the vorgangornot', sentence)
|
||||
jemandornot = 1
|
||||
wordstodelete = []
|
||||
for n in range(len(sentence) - 1):
|
||||
if sentence[n] == 'von':
|
||||
if sentence[n + 1] == 'ihr':
|
||||
sentence[n + 1] = 'sie'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'ihm':
|
||||
sentence[n + 1] = 'er'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
import spacy
|
||||
nlp = spacy.load('de_core_news_sm')
|
||||
token1 = nlp(sentence[n - 1])
|
||||
token2 = nlp(sentence[n + 1])
|
||||
for word in token1:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
for word in token2:
|
||||
if word.tag_ == 'NN' or word.tag_ == 'NE':
|
||||
wordstodelete.append(n)
|
||||
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
|
||||
|
||||
token3 = nlp(sentence[n-1])
|
||||
for word in token3:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'ein'
|
||||
wordstodelete.append(n)
|
||||
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
|
||||
|
||||
token3 = nlp(sentence[n-1])
|
||||
for word in token3:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'ein'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
|
||||
token4 = nlp(sentence[n-1])
|
||||
for word in token4:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'eine'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
|
||||
if sentence[n] == 'vom':
|
||||
|
||||
sentence[n] = 'ein'
|
||||
jemandornot = 0
|
||||
for index in wordstodelete[::-1]:
|
||||
del sentence[index]
|
||||
if jemandornot == 1:
|
||||
sentence.append('jemand')
|
||||
|
||||
|
||||
#print('sentence checkpoint 2', sentence)
|
||||
|
||||
#print('get the tuples and triples to check..')
|
||||
tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence)
|
||||
#print('done')
|
||||
#print(tuplesTocheck, triplesTocheck)
|
||||
|
||||
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck)
|
||||
|
||||
if len(grammpiecessentence) > 7:
|
||||
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
|
||||
endsentences.append(' '.join(grammpiecessentence).split())
|
||||
|
||||
else:
|
||||
|
||||
#print('the grammpiecessentence', grammpiecessentence)
|
||||
#print('genrating the permutations')
|
||||
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
|
||||
#print('done')
|
||||
#print(permutations)
|
||||
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
|
||||
# print('filtering the permutations based on the tuples and triples..')
|
||||
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
|
||||
# print('done')
|
||||
#else:
|
||||
# print('there are no triples or tuples to check..')
|
||||
# filteredpermutations = permutations
|
||||
|
||||
sentencesToCheck = []
|
||||
for sentence in permutations:
|
||||
sentencesToCheck.append(' '.join(sentence))
|
||||
|
||||
#print('sentencesToCheck', sentencesToCheck)
|
||||
#print('classifying the probability for right grammar in the filtered permutations..')
|
||||
#print(' '.join(sentence))
|
||||
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
|
||||
#print('done')
|
||||
|
||||
#print('the endsentence', endsentence)
|
||||
endsentences.append(endsentence.split())
|
||||
|
||||
#count1 = 0
|
||||
|
||||
#print(subjectindex)
|
||||
#subjectindex = subjectindex[0]
|
||||
#if subjectindex != 0:
|
||||
#for word in sentence[subjectindex - 1:subjectindex + 1]:
|
||||
#count1 += 1
|
||||
#if word == 'und':
|
||||
#thereIsanUnd = count1
|
||||
#if subjectindex == 0:
|
||||
#for word in sentence[subjectindex:subjectindex + 1]:
|
||||
#count1 += 1
|
||||
#if word == 'und':
|
||||
#thereIsanUnd = count1
|
||||
#thereisanEr = 0
|
||||
#if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er':
|
||||
|
||||
#thereisanEr = 1
|
||||
|
||||
|
||||
#if thereisanEr == 1:
|
||||
|
||||
#sentence.remove('Er')
|
||||
#sentence.remove('er')
|
||||
#sentence.append('ihn')
|
||||
|
||||
|
||||
#print('zustandornot',zustandORnot)
|
||||
#print('vorgang', vorgangORnot)
|
||||
|
||||
if zustandORnot == 1:
|
||||
completeform = self.hkldbZustandspassiv_All[workindex]
|
||||
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
|
||||
zustandORnot = 0
|
||||
|
||||
|
||||
if zustandORnot == 1:
|
||||
#completeform = self.hkldbZustandspassiv_All[workindex]
|
||||
formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:]
|
||||
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
|
||||
#print('formtoreplace zustand',formToReplace)
|
||||
#print('complete form', completeform)
|
||||
|
||||
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
|
||||
|
||||
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
|
||||
|
||||
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
|
||||
|
||||
for verb in verbs_of_sentence_string.split()[:-1]:
|
||||
#print(sentence)
|
||||
#print(index)
|
||||
|
||||
sentence.remove(verb)
|
||||
|
||||
thereisasubjectEr = 0
|
||||
|
||||
for index in subjectindex:
|
||||
for ind in undindex:
|
||||
if index - 1 == ind:
|
||||
if index - 2 == ('er' or 'Er'):
|
||||
thereisasubjectEr = 1
|
||||
if index + 1 == ind:
|
||||
if index + 2 == 'er' or index + 2 == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
#print('subjectofsentence', subjectofsentence)
|
||||
|
||||
thereisasubjectich = 0
|
||||
thereisasubjectdu = 0
|
||||
thereisasubjectihr = 0
|
||||
thereisasubjectwir = 0
|
||||
for word in subjectofsentence:
|
||||
if word == 'er' or word == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
if word == 'ich':
|
||||
thereisasubjectich = 1
|
||||
if word == 'du':
|
||||
thereisasubjectdu = 1
|
||||
if word == 'ihr':
|
||||
thereisasubjectihr = 1
|
||||
if word == 'wir':
|
||||
thereisasubjectwir = 1
|
||||
if thereisasubjectEr == 1:
|
||||
try:
|
||||
sentence.remove('Er')
|
||||
except:
|
||||
sentence.remove('er')
|
||||
sentence.append('ihn')
|
||||
|
||||
if thereisasubjectich == 1:
|
||||
sentence.remove('ich')
|
||||
sentence.append('mich')
|
||||
if thereisasubjectdu == 1:
|
||||
sentence.remove('du')
|
||||
sentence.append('dich')
|
||||
if thereisasubjectihr == 1:
|
||||
sentence.remove('ihr')
|
||||
sentence.append('euch')
|
||||
if thereisasubjectwir == 1:
|
||||
sentence.remove('wir')
|
||||
sentence.append('uns')
|
||||
|
||||
sentence.append(thrdPersonAktiv)
|
||||
|
||||
jemandornot = 1
|
||||
wordstodelete = []
|
||||
for n in range(len(sentence) - 1):
|
||||
if sentence[n] == 'von':
|
||||
if sentence[n + 1] == 'ihr':
|
||||
sentence[n + 1] = 'sie'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'ihm':
|
||||
sentence[n + 1] = 'er'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
|
||||
import spacy
|
||||
nlp = spacy.load('de_core_news_sm')
|
||||
token1 = nlp(sentence[n - 1])
|
||||
token2 = nlp(sentence[n + 1])
|
||||
for word in token1:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
for word in token2:
|
||||
if word.tag_ == 'NN' or word.tag_ == 'NE':
|
||||
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
|
||||
token4 = nlp(sentence[n-1])
|
||||
for word in token4:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'eine'
|
||||
wordstodelete.append(n)
|
||||
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
|
||||
|
||||
token3 = nlp(sentence[n-1])
|
||||
for word in token3:
|
||||
if sentence[n] == 'vom':
|
||||
|
||||
sentence[n] = 'ein'
|
||||
jemandornot = 0
|
||||
for index in wordstodelete[::-1]:
|
||||
del sentence[index]
|
||||
if jemandornot == 1:
|
||||
sentence.append('jemand')
|
||||
|
||||
|
||||
#print('sentence checkpoint 2', sentence)
|
||||
|
||||
#print('get the tuples and triples to check..')
|
||||
tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence)
|
||||
#print('done')
|
||||
#print(tuplesTocheck, triplesTocheck)
|
||||
|
||||
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck)
|
||||
|
||||
if len(grammpiecessentence) > 7:
|
||||
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
|
||||
endsentences.append(' '.join(grammpiecessentence).split())
|
||||
|
||||
else:
|
||||
|
||||
#print('the grammpiecessentence', grammpiecessentence)
|
||||
#print('genrating the permutations')
|
||||
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
|
||||
#print('done')
|
||||
#print(permutations)
|
||||
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
|
||||
# print('filtering the permutations based on the tuples and triples..')
|
||||
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
|
||||
# print('done')
|
||||
#else:
|
||||
# print('there are no triples or tuples to check..')
|
||||
# filteredpermutations = permutations
|
||||
|
||||
sentencesToCheck = []
|
||||
for sentence in permutations:
|
||||
sentencesToCheck.append(' '.join(sentence))
|
||||
|
||||
#print('sentencesToCheck', sentencesToCheck)
|
||||
#print('classifying the probability for right grammar in the filtered permutations..')
|
||||
#print(' '.join(sentence))
|
||||
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
|
||||
#print('done')
|
||||
|
||||
#print('the endsentence', endsentence)
|
||||
endsentences.append(endsentence.split())
|
||||
|
||||
#count1 = 0
|
||||
|
||||
#print(subjectindex)
|
||||
#subjectindex = subjectindex[0]
|
||||
#if subjectindex != 0:
|
||||
#for word in sentence[subjectindex - 1:subjectindex + 1]:
|
||||
#count1 += 1
|
||||
#if word == 'und':
|
||||
#thereIsanUnd = count1
|
||||
#if subjectindex == 0:
|
||||
#for word in sentence[subjectindex:subjectindex + 1]:
|
||||
#count1 += 1
|
||||
#if word == 'und':
|
||||
#thereIsanUnd = count1
|
||||
#thereisanEr = 0
|
||||
#if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er':
|
||||
|
||||
#thereisanEr = 1
|
||||
|
||||
|
||||
#if thereisanEr == 1:
|
||||
|
||||
#sentence.remove('Er')
|
||||
#sentence.remove('er')
|
||||
#sentence.append('ihn')
|
||||
|
||||
|
||||
#print('zustandornot',zustandORnot)
|
||||
#print('vorgang', vorgangORnot)
|
||||
|
||||
if zustandORnot == 1:
|
||||
completeform = self.hkldbZustandspassiv_All[workindex]
|
||||
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
|
||||
zustandORnot = 0
|
||||
|
||||
|
||||
if zustandORnot == 1:
|
||||
#completeform = self.hkldbZustandspassiv_All[workindex]
|
||||
formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:]
|
||||
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
|
||||
#print('formtoreplace zustand',formToReplace)
|
||||
#print('complete form', completeform)
|
||||
|
||||
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
|
||||
|
||||
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
|
||||
|
||||
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
|
||||
|
||||
for verb in verbs_of_sentence_string.split()[:-1]:
|
||||
#print(sentence)
|
||||
#print(index)
|
||||
|
||||
sentence.remove(verb)
|
||||
|
||||
thereisasubjectEr = 0
|
||||
|
||||
for index in subjectindex:
|
||||
for ind in undindex:
|
||||
if index - 1 == ind:
|
||||
if index - 2 == ('er' or 'Er'):
|
||||
thereisasubjectEr = 1
|
||||
if index + 1 == ind:
|
||||
if index + 2 == 'er' or index + 2 == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
#print('subjectofsentence', subjectofsentence)
|
||||
|
||||
thereisasubjectich = 0
|
||||
thereisasubjectdu = 0
|
||||
thereisasubjectihr = 0
|
||||
thereisasubjectwir = 0
|
||||
for word in subjectofsentence:
|
||||
if word == 'er' or word == 'Er':
|
||||
thereisasubjectEr = 1
|
||||
if word == 'ich':
|
||||
thereisasubjectich = 1
|
||||
if word == 'du':
|
||||
thereisasubjectdu = 1
|
||||
if word == 'ihr':
|
||||
thereisasubjectihr = 1
|
||||
if word == 'wir':
|
||||
thereisasubjectwir = 1
|
||||
if thereisasubjectEr == 1:
|
||||
try:
|
||||
sentence.remove('Er')
|
||||
except:
|
||||
sentence.remove('er')
|
||||
sentence.append('ihn')
|
||||
|
||||
if thereisasubjectich == 1:
|
||||
sentence.remove('ich')
|
||||
sentence.append('mich')
|
||||
if thereisasubjectdu == 1:
|
||||
sentence.remove('du')
|
||||
sentence.append('dich')
|
||||
if thereisasubjectihr == 1:
|
||||
sentence.remove('ihr')
|
||||
sentence.append('euch')
|
||||
if thereisasubjectwir == 1:
|
||||
sentence.remove('wir')
|
||||
sentence.append('uns')
|
||||
|
||||
sentence.append(thrdPersonAktiv)
|
||||
|
||||
jemandornot = 1
|
||||
wordstodelete = []
|
||||
for n in range(len(sentence) - 1):
|
||||
if sentence[n] == 'von':
|
||||
if sentence[n + 1] == 'ihr':
|
||||
sentence[n + 1] = 'sie'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'ihm':
|
||||
sentence[n + 1] = 'er'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
|
||||
import spacy
|
||||
nlp = spacy.load('de_core_news_sm')
|
||||
token1 = nlp(sentence[n - 1])
|
||||
token2 = nlp(sentence[n + 1])
|
||||
for word in token1:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'ein'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
|
||||
token4 = nlp(sentence[n-1])
|
||||
for word in token4:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'eine'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
for word in token2:
|
||||
if word.tag_ == 'NN' or word.tag_ == 'NE':
|
||||
wordstodelete.append(n)
|
||||
|
||||
if sentence[n] == 'vom':
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
|
||||
|
||||
sentence[n] = 'ein'
|
||||
jemandornot = 0
|
||||
token3 = nlp(sentence[n-1])
|
||||
for word in token3:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'ein'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
|
||||
token4 = nlp(sentence[n-1])
|
||||
for word in token4:
|
||||
if word.tag_ != 'NN' and word.tag_ != 'NE':
|
||||
sentence[n + 1] = 'eine'
|
||||
wordstodelete.append(n)
|
||||
jemandornot = 0
|
||||
|
||||
for index in wordstodelete[::-1]:
|
||||
del sentence[index]
|
||||
if sentence[n] == 'vom':
|
||||
|
||||
if jemandornot == 1:
|
||||
sentence.append('jemand')
|
||||
sentence[n] = 'ein'
|
||||
jemandornot = 0
|
||||
|
||||
for index in wordstodelete[::-1]:
|
||||
del sentence[index]
|
||||
|
||||
if jemandornot == 1:
|
||||
sentence.append('jemand')
|
||||
|
||||
|
||||
#print(sentence)
|
||||
#print(sentence)
|
||||
|
||||
#print('get the tuples and triples to check..')
|
||||
tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence)
|
||||
#print('done')
|
||||
#print(tuplesTocheck, triplesTocheck)
|
||||
#print('get the tuples and triples to check..')
|
||||
tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence)
|
||||
#print('done')
|
||||
#print(tuplesTocheck, triplesTocheck)
|
||||
|
||||
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck)
|
||||
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck)
|
||||
|
||||
if len(grammpiecessentence) > 7:
|
||||
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
|
||||
endsentences.append(' '.join(grammpiecessentence).split())
|
||||
if len(grammpiecessentence) > 7:
|
||||
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
|
||||
endsentences.append(' '.join(grammpiecessentence).split())
|
||||
|
||||
else:
|
||||
|
||||
#print('the grammpiecessentence', grammpiecessentence)
|
||||
#print('genrating the permutations')
|
||||
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
|
||||
#print('done')
|
||||
#print(permutations)
|
||||
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
|
||||
# print('filtering the permutations based on the tuples and triples..')
|
||||
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
|
||||
# print('done')
|
||||
#else:
|
||||
# print('there are no triples or tuples to check..')
|
||||
# filteredpermutations = permutations
|
||||
|
||||
sentencesToCheck = []
|
||||
for sentence in permutations:
|
||||
sentencesToCheck.append(' '.join(sentence))
|
||||
|
||||
#print('sentencesToCheck', sentencesToCheck)
|
||||
#print('classifying the probability for right grammar in the filtered permutations..')
|
||||
#print(' '.join(sentence))
|
||||
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
|
||||
#print('done')
|
||||
|
||||
#print('the endsentence', endsentence)
|
||||
endsentences.append(endsentence.split())
|
||||
|
||||
|
||||
|
||||
if zustandORnot == 0 and vorgangORnot == 0:
|
||||
#print('it is coming to the else')
|
||||
endsentences.append(sentence)
|
||||
|
||||
except:
|
||||
print('the sentence ' + str(sentence) + ' caused an error in the module passive2active')
|
||||
if endsentences[-1] == sentence:
|
||||
pass
|
||||
else:
|
||||
|
||||
#print('the grammpiecessentence', grammpiecessentence)
|
||||
#print('genrating the permutations')
|
||||
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
|
||||
#print('done')
|
||||
#print(permutations)
|
||||
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
|
||||
# print('filtering the permutations based on the tuples and triples..')
|
||||
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
|
||||
# print('done')
|
||||
#else:
|
||||
# print('there are no triples or tuples to check..')
|
||||
# filteredpermutations = permutations
|
||||
|
||||
sentencesToCheck = []
|
||||
for sentence in permutations:
|
||||
sentencesToCheck.append(' '.join(sentence))
|
||||
|
||||
#print('sentencesToCheck', sentencesToCheck)
|
||||
#print('classifying the probability for right grammar in the filtered permutations..')
|
||||
#print(' '.join(sentence))
|
||||
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
|
||||
#print('done')
|
||||
|
||||
#print('the endsentence', endsentence)
|
||||
endsentences.append(endsentence.split())
|
||||
|
||||
|
||||
|
||||
if zustandORnot == 0 and vorgangORnot == 0:
|
||||
#print('it is coming to the else')
|
||||
endsentences.append(sentence)
|
||||
|
||||
endsentences.append(sentence)
|
||||
|
||||
|
||||
|
||||
|
|
|
@ -248,18 +248,10 @@
|
|||
"scrolled": true
|
||||
},
|
||||
"outputs": [
|
||||
{
|
||||
"name": "stdout",
|
||||
"output_type": "stream",
|
||||
"text": [
|
||||
"dumping the session\n",
|
||||
"done\n"
|
||||
]
|
||||
},
|
||||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "74fc341e0a474605b1f95c3e4e35d0b2",
|
||||
"model_id": "3daf3708d77e4098b826524460104e31",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -453,7 +445,7 @@
|
|||
"#display(OutTextFeld)\n",
|
||||
"items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n",
|
||||
"#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n",
|
||||
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n"
|
||||
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n"
|
||||
]
|
||||
},
|
||||
{
|
||||
|
@ -476,7 +468,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "082cb6fb58aa41cc82d918d2a056258d",
|
||||
"model_id": "a45cde93f5394cf6b262cc31f14c0d2e",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -676,7 +668,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "dad4baed09a5407194ae2daf153e8f43",
|
||||
"model_id": "5b0d573af12e4e1f9276834123b062a7",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -716,7 +708,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "4bff927b0a404ed0b909db2bd766ac65",
|
||||
"model_id": "be9b40c345ca4105a3810de0872fa144",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -838,7 +830,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "b6053b85bdcd4446b010b5fb872dc52c",
|
||||
"model_id": "01404ad96cc34dd5af96915447731bea",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
@ -864,7 +856,7 @@
|
|||
{
|
||||
"data": {
|
||||
"application/vnd.jupyter.widget-view+json": {
|
||||
"model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4",
|
||||
"model_id": "39c27a696cbd470fa8f5c58d10460336",
|
||||
"version_major": 2,
|
||||
"version_minor": 0
|
||||
},
|
||||
|
|
5
Prototyp/Verbesserungen/Input145.txt
Normal file
5
Prototyp/Verbesserungen/Input145.txt
Normal file
|
@ -0,0 +1,5 @@
|
|||
so falsch waren die Voraussagen vor der Vergabe des Friedensnobelpreises schon lange nicht mehr .
|
||||
die meisten Auguren hatten die Klimakämpfer*innen von Fridays for Future, die im Kampf gegen die Coronapandemie befindliche Weltgesundheitsorganisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
|
||||
an das Welternährungsprogramm (World Food Programme, WFP) der UNO dachte niemand .
|
||||
dabei gehörte die 1961 gegründete und inzwischen größte humanitäre Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von über 1.000 vorgeschlagenen Kandidat*innen .
|
||||
und wenn man sich anschaut, welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben, dann war die Auszeichnung für das WFP schon lange überfällig .
|
1
Prototyp/Verbesserungen/Input146.txt
Normal file
1
Prototyp/Verbesserungen/Input146.txt
Normal file
|
@ -0,0 +1 @@
|
|||
ich ging, obwohl es regnete, in die Schule .
|
1
Prototyp/Verbesserungen/Input147.txt
Normal file
1
Prototyp/Verbesserungen/Input147.txt
Normal file
|
@ -0,0 +1 @@
|
|||
er war, obwohl es nicht so aussah, ziemlich verliebt .
|
1
Prototyp/Verbesserungen/Input148.txt
Normal file
1
Prototyp/Verbesserungen/Input148.txt
Normal file
|
@ -0,0 +1 @@
|
|||
der Mann, der nach Hause ging, rannte wie der Wind .
|
4
Prototyp/Verbesserungen/Input149.txt
Normal file
4
Prototyp/Verbesserungen/Input149.txt
Normal file
|
@ -0,0 +1,4 @@
|
|||
begleitet von Warnstreiks in mehreren Bündesländern geht der Tarifkonflikt für die rund 2,3 Millionen Beschäftigten im öffentlichen Dienst von Bund und Kommunen in die entscheidende Phase .
|
||||
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
|
||||
es könnte die letzte Verhandlungsrunde sein .
|
||||
zwar zeichnet sich bislang noch keine Annäherung ab, aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm groß .
|
3
Prototyp/Verbesserungen/Input150.txt
Normal file
3
Prototyp/Verbesserungen/Input150.txt
Normal file
|
@ -0,0 +1,3 @@
|
|||
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent, mindestens aber 150 Euro pro Monat .
|
||||
der Bund und die Vereinigung der kommunalen Arbeitgeberverbände (VKA) bieten ein Lohnplus von 3,5 Prozent an, mindestens jedoch 30 Euro .
|
||||
die Differenz zwischen Forderung und Angebot klingt nicht groß, sie ist es aber .
|
7
Prototyp/Verbesserungen/Input151.txt
Normal file
7
Prototyp/Verbesserungen/Input151.txt
Normal file
|
@ -0,0 +1,7 @@
|
|||
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
|
||||
im engeren Sinne wird der Begriff Fische eingeschränkt auf aquatisch lebende Tiere mit Kiefer verwendet .
|
||||
im weiteren Sinne umfasst er auch Kieferlose, die unter den rezenten Arten noch mit den Rundmäulern vertreten sind .
|
||||
in beiden Fällen fehlt wenigstens ein Nachfahre der Fische (nämlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
|
||||
daher bilden die Fische keine geschlossene Abstammungsgemeinschaft in der biologischen Systematik, sondern ein paraphyletisches Taxon .
|
||||
sie sind lediglich eine unvollständige Abstammungsgemeinschaft, bestehend aus einem jüngsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
|
||||
die Lehre von der Biologie der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .
|
19
Prototyp/Verbesserungen/Output145.txt
Normal file
19
Prototyp/Verbesserungen/Output145.txt
Normal file
|
@ -0,0 +1,19 @@
|
|||
so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer .
|
||||
die meisten Auguren hatten die Klimakaempfer*innen von Fridays for Future .
|
||||
die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
|
||||
die Welt·gesundheits·organisation ist eine Behoerde .
|
||||
das kurze Wort dafuer ist WHO .
|
||||
mit Zeit kann man Sachen messen .
|
||||
man kann messen wie lange etwas dauert .
|
||||
und man kann Sachen mit·einander vergleichen .
|
||||
zum Beispiel wie lange ein Jahr geht .
|
||||
oder wie lange eine Stunde geht .
|
||||
an das Welternaehrungsprogramm (World Food Programme .
|
||||
Wfp) der UNO dachte niemand .
|
||||
die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern .
|
||||
insgesamt sind es 193 Laender .
|
||||
dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen .
|
||||
eine Organisation ist eine Gruppe von Leuten .
|
||||
und wenn man sich anschaut .
|
||||
welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben .
|
||||
dann war die Auszeichnung fuer das WFP schon lange ueberfaellig .
|
3
Prototyp/Verbesserungen/Output146.txt
Normal file
3
Prototyp/Verbesserungen/Output146.txt
Normal file
|
@ -0,0 +1,3 @@
|
|||
ich ging .
|
||||
obwohl es regnete .
|
||||
in die Schule .
|
3
Prototyp/Verbesserungen/Output147.txt
Normal file
3
Prototyp/Verbesserungen/Output147.txt
Normal file
|
@ -0,0 +1,3 @@
|
|||
er war .
|
||||
obwohl es etwas anders aussah .
|
||||
ziemlich verliebt .
|
7
Prototyp/Verbesserungen/Output148.txt
Normal file
7
Prototyp/Verbesserungen/Output148.txt
Normal file
|
@ -0,0 +1,7 @@
|
|||
der Mann rannte wie der Wind .
|
||||
Wind ist Luft, die sich bewegt .
|
||||
man kann ihn nicht sehen .
|
||||
aber man kann ihn erkennen .
|
||||
zum Beispiel: Wenn Ãste und Blaetter sich bewegen, dann weht der Wind .
|
||||
oder am Strand, wenn sich der Sand bewegt .
|
||||
der nach Hause ging .
|
6
Prototyp/Verbesserungen/Output149.txt
Normal file
6
Prototyp/Verbesserungen/Output149.txt
Normal file
|
@ -0,0 +1,6 @@
|
|||
begleitet von Warnstreiks in mehreren Buendeslaendern geht der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen in die entscheidende Phase .
|
||||
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
|
||||
der Arbeitgeber ist der Chef einer Firma .
|
||||
es koennte die letzte Verhandlungsrunde sein .
|
||||
zwar zeichnet sich bislang noch keine Annaeherung ab .
|
||||
aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm gross .
|
15
Prototyp/Verbesserungen/Output150.txt
Normal file
15
Prototyp/Verbesserungen/Output150.txt
Normal file
|
@ -0,0 +1,15 @@
|
|||
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent .
|
||||
Fordern heisst :
|
||||
ich will etwas bekommen .
|
||||
ich stelle eine Forderung .
|
||||
mindestens aber 150 Euro pro Monat .
|
||||
der Euro ist eine Waehrung .
|
||||
Waehrung ist Geld das man in einem Land benutzt um zu bezahlen .
|
||||
es gibt Muenzen und Geldscheine .
|
||||
der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an .
|
||||
mindestens jedoch 30 Euro .
|
||||
die Differenz zwischen Forderung und Angebot klingt nicht gross .
|
||||
Forderung heisst etwas fordern .
|
||||
Fordern heisst :
|
||||
ich will etwas bekommen .
|
||||
sie ist es aber .
|
16
Prototyp/Verbesserungen/Output151.txt
Normal file
16
Prototyp/Verbesserungen/Output151.txt
Normal file
|
@ -0,0 +1,16 @@
|
|||
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
|
||||
ein Fisch ist ein Tier .
|
||||
er lebt im Wasser .
|
||||
im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet .
|
||||
im weiteren Sinne umfasst er auch Kieferlose .
|
||||
Jemand vertritt mit den Rundmaeulern noch unter den rezenten Arten die .
|
||||
in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
|
||||
daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik .
|
||||
sondern ein paraphyletisches Taxon .
|
||||
sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft .
|
||||
Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
|
||||
die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .
|
||||
die Lehre ist von der Biologie .
|
||||
Biologie untersucht Leben und Lebe·wesen .
|
||||
zum Beispiel Tiere, Menschen und Pflanzen .
|
||||
und Biologie sammelt Wissen ueber Leben und Lebe·wesen .
|
20
Prototyp/Verbesserungen/Verbesserungen145.txt
Normal file
20
Prototyp/Verbesserungen/Verbesserungen145.txt
Normal file
|
@ -0,0 +1,20 @@
|
|||
so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer .
|
||||
die meisten Auguren hatten die Klimakaempfer*innen von Fridays for Future auf dem Zettel .
|
||||
sie hatten die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation auf dem Zettel .
|
||||
oder sie hatten eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
|
||||
die Welt·gesundheits·organisation ist eine Behoerde .
|
||||
das kurze Wort dafuer ist WHO .
|
||||
mit Zeit kann man Sachen messen .
|
||||
man kann messen wie lange etwas dauert .
|
||||
und man kann Sachen mit·einander vergleichen .
|
||||
zum Beispiel wie lange ein Jahr geht .
|
||||
oder wie lange eine Stunde geht .
|
||||
an das Welternaehrungsprogramm (World Food Programme .
|
||||
Wfp) der UNO dachte niemand .
|
||||
die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern .
|
||||
insgesamt sind es 193 Laender .
|
||||
dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen .
|
||||
eine Organisation ist eine Gruppe von Leuten .
|
||||
und wenn man sich anschaut .
|
||||
welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben .
|
||||
dann war die Auszeichnung fuer das WFP schon lange ueberfaellig .
|
2
Prototyp/Verbesserungen/Verbesserungen146.txt
Normal file
2
Prototyp/Verbesserungen/Verbesserungen146.txt
Normal file
|
@ -0,0 +1,2 @@
|
|||
ich ging in die Schule .
|
||||
obwohl es regnete .
|
2
Prototyp/Verbesserungen/Verbesserungen147.txt
Normal file
2
Prototyp/Verbesserungen/Verbesserungen147.txt
Normal file
|
@ -0,0 +1,2 @@
|
|||
er war ziemlich verliebt .
|
||||
obwohl es anders aussah .
|
7
Prototyp/Verbesserungen/Verbesserungen148.txt
Normal file
7
Prototyp/Verbesserungen/Verbesserungen148.txt
Normal file
|
@ -0,0 +1,7 @@
|
|||
der Mann rannte wie der Wind .
|
||||
Wind ist Luft, die sich bewegt .
|
||||
man kann ihn nicht sehen .
|
||||
aber man kann ihn erkennen .
|
||||
zum Beispiel: Wenn Ãste und Blaetter sich bewegen, dann weht der Wind .
|
||||
oder am Strand, wenn sich der Sand bewegt .
|
||||
dieser ging nach Hause .
|
8
Prototyp/Verbesserungen/Verbesserungen149.txt
Normal file
8
Prototyp/Verbesserungen/Verbesserungen149.txt
Normal file
|
@ -0,0 +1,8 @@
|
|||
der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen geht in die entscheidende Phase .
|
||||
dabei wird er begleitet von Warnstreiks in mehreren Buendeslaendern .
|
||||
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
|
||||
der Arbeitgeber ist der Chef einer Firma .
|
||||
es koennte die letzte Verhandlungsrunde sein .
|
||||
zwar zeichnet sich bislang noch keine Annaeherung ab .
|
||||
aber der Einigungsdruck auf beiden Seiten ist enorm gross .
|
||||
weil gerade die Coronakrise ist .
|
12
Prototyp/Verbesserungen/Verbesserungen150.txt
Normal file
12
Prototyp/Verbesserungen/Verbesserungen150.txt
Normal file
|
@ -0,0 +1,12 @@
|
|||
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent .
|
||||
Fordern heisst :
|
||||
ich will etwas bekommen .
|
||||
ich stelle eine Forderung .
|
||||
mindestens aber 150 Euro pro Monat .
|
||||
der Euro ist eine Waehrung .
|
||||
Waehrung ist Geld das man in einem Land benutzt um zu bezahlen .
|
||||
es gibt Muenzen und Geldscheine .
|
||||
der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an .
|
||||
mindestens jedoch 30 Euro .
|
||||
die Differenz zwischen Forderung und Angebot klingt nicht gross .
|
||||
sie ist es aber .
|
16
Prototyp/Verbesserungen/Verbesserungen151.txt
Normal file
16
Prototyp/Verbesserungen/Verbesserungen151.txt
Normal file
|
@ -0,0 +1,16 @@
|
|||
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
|
||||
ein Fisch ist ein Tier .
|
||||
er lebt im Wasser .
|
||||
im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet .
|
||||
im weiteren Sinne umfasst er auch Kieferlose .
|
||||
Jemand vertritt die mit den Rundmaeulern noch unter den rezenten Arten .
|
||||
in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
|
||||
daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik .
|
||||
nämlich ein paraphyletisches Taxon .
|
||||
sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft .
|
||||
Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
|
||||
die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .
|
||||
die Lehre ist von der Biologie .
|
||||
Biologie untersucht Leben und Lebe·wesen .
|
||||
zum Beispiel Tiere, Menschen und Pflanzen .
|
||||
und Biologie sammelt Wissen ueber Leben und Lebe·wesen .
|
|
@ -1 +1 @@
|
|||
144
|
||||
151
|
Binary file not shown.
Binary file not shown.
Loading…
Reference in a new issue